Skip navigation

Oorjaarlijst-analyse 2011

Het moet ergens in de jaren zeventig geweest zijn dat ‘het jaarlijstje van Oor’ vaste decembergesprekstof werd in mijn vriendenkring. De oudste KerstOor die ik in mijn archief voor het grijpen heb liggen is die van 1979. En ik zie dat ik in alle lijstjes – inclusief de eindlijst – met balpen reeds aankruiste welke platen ik ook in mijn eigen jaarlijstje – toen nog niet voor Oor – had staan.

Destijds werkten er nog maar 18 verschillende journalisten aan de samenstelling van de Oorjaarlijst mee en leverde dat uiteindelijk een top-10 op. Wat dat betreft is er ruim dertig jaar later met meer dan driemaal zoveel deelnemers wel wat veranderd. Overigens, van de achttien lijstenmakers van 1979 is er anno 2011 geen enkele meer van de partij.

Behalve de sterke toename van het aantal deelnemers is ook de Oor eindlijst zelf sinds jaar en dag uitgegroeid tot een top-20, de laatste vier jaar zelfs aangevuld met een ‘bubbling under’ lijst die tot de vijftigste plaats doorloopt.
Echter, hoe relevant zijn deze cijfers? Kun je wel tot in het oneindige blijven doortellen en rangschikken, of moet je ergens een duidelijke streep trekken om de zaken een beetje serieus betekenisvol te houden?
Lijstjes en statistieken worden steeds populairder, zowel in de media als in de marketing; denk alleen maar aan de jaarlijkse Top-2000 van Radio 2. Zodra er op lijstjes vervolgens statistiek wordt bedreven en daar weer conclusies aan worden verbonden, komt daar vaak ook een schijn van exactheid of zelfs wetenschappelijke onderbouwing omheen hangen. Het mooie van lijstjes en statistieken is dat ze zich kort en bondig laten weergeven in een grafiekje of tabel. Sla er de dagbladen maar op na – de gratis treinkrantjes voorop.

Maar wat zegt zo’n lijstje, tabel of grafiek nou eigenlijk? En hoe betrouwbaar zijn de conclusies die er doorgaans in de media vanuit de losse pols worden getrokken? Om die vragen een beetje correct te beantwoorden is er bij de meeste tabellen of grafieken een toelichting nodig die heel wat meer ruimte kost dan dat simpele tabelletje of die lekker ogende grafiek.
Hoe is het onderzoek gedaan? Onder hoeveel respondenten? Onder welke omstandigheden? Wie was de opdrachtgever? In hoeverre is er sprake van ‘ruis’, oftewel: in welke mate zijn de gegevens die je gevonden hebt relevant. En in hoeverre zijn de verschillen tussen verschillende metingen en respondenten significant?
En zelfs als dat allemaal verzekerd is, hoe interpreteer je dan de uiteindelijke resultaten. Dat is misschien nog wel het meest heikele punt. Over al deze zaken schreef Coen de Bruijn – absoluut geen familie; de statistische kans om ‘Bruijn’ of ‘Bruyn’ te heten in dit land is behoorlijk groot – het zeer verhelderende boek ‘Van Tofu krijg je Geheugenverlies; Gekonkel en gestuntel met statistiek in media, politiek en reclame’ waar ik ook voor deze analyse dankbaar gebruik heb gemaakt.

Maar terug naar de muziek. Het aardige is dat ik de ‘analyse’ dit jaar voor de zesde keer uitvoer (2005, 2007, 2008, 2009, 2010, 2011) wat – ervan uitgaande dat de groep deelnemers over die periode grofweg constant is – weldegelijk enig inzicht begint op te leveren. Een weekend tellen, hertellen en toetsen aan wat statistische principes leverde het volgende op.

Om te beginnen de top-22 zoals die in de Oor #12 (dec 2011/jan 2012) verschenen is (met een kleine correctie wat James Blake betreft, maar daar had de Oorredactie zelf middels Twitter ook reeds op gewezen!) , maar nu met het behaalde puntenaantal – nummer één in ieder lijstje kreeg 10 punten, nummer twee 9, etc. Plus tussen haakjes het aantal keren dat het album genomineerd werd. Bij gelijk puntenaantal gaat hoogste aantal nominaties voor.

1 PJ Harvey – Let England Shake 107 (15)
2 Wilco – The Whole Love 80 (12)
3 Spinvis – Tot ziens, Justine Keller 80 (11)
4 Gillian Welch – The Harrow & The Harvest 51 (7)
5 James Blake – James Blake 50 (10)
6 Kurt Vile – Smoke Ring for my Halo 49 (7)
7 Adele – 21 48 (9)
8 The Vaccines – What did you expect from
The Vaccines? 47 (8)
9 Elbow – Build a Rocket Boys! 44 (8)
10 Bon Iver – Bon Iver 44 (6)
11 Fucked Up – David Comes to Life 43 (5)
12 Arctic Monkeys – Suck it and see 41 (9)
13 Pete and the Pirates – One Thousand Pictures 41 (7)
14 Destroyer – Kaputt 40 (7)
15 Other Lives – Tamer Animals 36 (6)
16 Fleet Foxes – Helplessness Blues 35 (6)
17 Tom Waits – Bad as me 34 (5)
18/19 Danger Mouse & Daniele Luppi – Rome 33 (5)
18/19 War on Drugs – Slave Ambient 33 (5)
20 The Decemberists – The King is Dead 31 (5)
21/22 Zomby – Dedication 30 (5)
21/22 Florence + the Machine – Ceremonials 30 (5)

Voordat ik het over de relevantie van deze lijst ga hebben eerst even een opmerking over de wijze van samenstellen. Doorslaggevend is hier het puntenaantal en bij gelijk puntenaantal is het aantal nominaties bepalend. Er is echter ook iets te zeggen voor een telling waarbij het aantal nominaties het zwaarste weegt en daarna pas – bij gelijk aantal nominaties – het totaal aantal punten dat een album scoort. De eindlijst van het Britse muziekblad The Wire is bijvoorbeeld op die manier samengesteld. Mede uit eigen ervaring weet ik dat lijstjessamenstellers misschien nog wel meer hechten aan de vraag welke tien platen in hun lijstje komen – en dus in Oor afgedrukt worden – dan aan de precieze volgorde van dat lijstje. Onderbouwing voor die gedachte vond ik in het verleden regelmatig bij het lezen van de blogs van diverse samenstellers. De vraag welke albums de top-10 überhaupt zouden halen leverde meer getob op dan de exacte positie van de tien geselecteerde albums.

Een alternatieve Top 28 waarbij het aantal nominaties doorslaggevend is zou er zo uitzien:

1 PJ Harvey – Let England Shake 15 (107)
2 Wilco – The Whole Love 12 (80)
3 Spinvis – Tot ziens, Justine Keller 11 (80)
4 James Blake – James Blake 10 (50)
5 Adele – 21 9 (48)
6 Arctic Monkeys – Suck it and see 9 (41)
7 The Vaccines – What did you expect from
The Vaccines? 8 (47)
8 Elbow – Build a Rocket Boys! 8 (44)
9 Gillian Welch – The Harrow & The Harvest 7 (51)
10 Kurt Vile – Smoke Ring for my Halo 7 (49)
11 Pete and the Pirates – One Thousand Pictures 7 (41)
12 Destroyer – Kaputt 7 (40)
13 Bon Iver – Bon Iver 6 (44)
14 Other Lives – Tamer Animals 6 (36)
15 Fleet Foxes – Helplessness Blues 6 (35)
16 Radiohead – The King of Limbs 6 (20)

17 Fucked Up – David Comes to Life 5 (43)
18 Tom Waits – Bad as me 5 (34)
19/20 Danger Mouse & Daniele Luppi – Rome 5 (33)
19/20 War on Drugs – Slave Ambient 5 (33)
21 The Decemberists – The King is Dead 5 (31)
22/23 Zomby – Dedication 5 (30)
22/23 Florence + the Machine – Ceremonials 5 (30)
24/25 Alamo Race Track – Unicorn Loves Deer 5 (28)
24/25 Girls – Father, Son, Holy Ghost 5 (28)
26 Miles Kane – Colour of the Trap 5 (25)
27 Tim Knol – Days 5 (24)
28 Dazzled Kid – Fire needs Air 5 (23)

(Ik ben hier even door gegaan tot nr. 28 omdat ik alle albums met 5 nominaties wilde noemen)

De opvallendste verschillen tussen de beide lijsten zijn de daling van Gillian Welch met 5 plaatsen t.o.v. de ‘officiele lijst’ of ‘puntenlijst’ en de stijging van Arctic Monkies met zes plaatsen. Welch is dus door minder mensen genomineerd, maar wel op een aanzienlijk hoge plek (gemiddeld ergens tussen plaats 3 en 4) en Arctic Monkeys door aanzienlijk meer mensen, maar gemiddeld lager (ergens tussen plaats 6 en7).
Opmerkelijk is ook dat Radiohead op basis van het aantal nominaties de top-20 van de eindlijst binnen zou komen, maar door de respondenten gemiddeld zo laag in hun lijstjes gezet wordt dat de groep op basis van het puntenaantal niet verder komt dan een veertigste plek.

Dan nu het echte werk. De relevantie van de lijst en de vraag hoe significant de verschillen zijn. Daarvoor gaan we terug naar de oorspronkelijke – maar wel gecorrigeerde – Oorlijst.

Wat de relevantie betreft:

– Er deden dit jaar zestig samenstellers mee aan de jaarlijstjes. Tien meer dan vorig jaar en even veel als in 2009. In 2008 waren er maar liefst 64 samenstellers. In 2007 vijftig en in 2006 en 2005 werd er in beide gevallen door 44 samenstellers deelgenomen. Hoe meer deelnemers, hoe betrouwbaarder de statistiek en hoe meer mogelijkheden om de resultaten succesvol te analyseren en interpreteren.

Jaar Aantal deelnemers
2005 44
2006 44
2007 50
2008 64
2009 60
2010 50
2011 60

– Die 60 deelnemers van 2010 hadden in theorie in totaal 10 x 60 = 600 verschillende albums kunnen nomineren. Ze nomineerden in totaal 312 albums, wat neerkomt op 5,20 ‘unieke albums’ per samensteller. Hoe meer unieke albums per lijstje, hoe meer de samenstellers van elkaar verschillen in hun opvatting wat de belangrijke platen van het jaar zijn. Ter vergelijking: in 2010 werd 5,50 uniek album per respondent genoemd. In 2009 5,53 uniek album per samensteller. In 2008 was dat cijfer 5,03. In 2007 was het 5,56 en in 2005 was het 5,64. Daaruit mag je concluderen dat de samenstellers het in 2011 ietsje meer met elkaar eens waren dan in 2010, maar dat verschil is nauwelijks significant te noemen. Ook de jaren daarvoor was het beeld niet significant anders.

Tabel 1.
Jaar Aantal unieke albums per lijst
2007 5,56
2008 5,03
2009 5,53
2010 5,50
2011 5,20

Hoewel je voorzichtig moet blijven, kun je hier toch wel een conclusie uit trekken:n namelijk dat de samenstelling van de groep respondenten in grote lijnen al jaren constant is. De praktijk leert dat bij de samenstelling van de Oorjaarlijst diverse specialismen – metal, punk, hiphop – vertegenwoordigd zijn, maar dat de meerderheid bestaat uit ‘allround’-muziekkenners en –professionals. Als plotseling de helft van de deelnemers bijvoorbeeld metal- of hiphopspecialist zou zijn geweest, is de kans groot – zeker weten doe je dat niet – dat het totale aantal genoemde albums aanzienlijk lager zou liggen met als gevolg een significant lager aantal ‘unieke’ albums per respondent.

– Van de 312 albums die in totaal genomineerd werden door de samenstellers van 2011, werden er maar liefst 208 slecht één keer genoemd. Dat is 76,7%. Op albums die slechts één keer genoemd worden is geen serieuze statistiek te beoefenen. Één keer genomineerd worden is niet zelden een toevalstreffer. Wat ons bij de jaarlijsten interesseert zijn die albums waarover wellicht niet alle, maar toch veel samenstellers het eens zijn. Kortom 208 van de 312 genomineerde albums zijn eigenlijk slechts ‘ruis’ binnen de statistiek. Het percentage ruis blijkt overigens tamelijk constant door de jaren heen: In 2010 ruim 70%; in 2009 exact 70%; de jaren daarvoor 1 of 2 procentjes meer of minder. Echter geen significante verschillen.

– Maar doen de 104 resterende albums, die dus twee of meer keer genomineerd zijn, er dan allemaal statistisch wel toe? Ook daar kun je serieuze vraagtekens bij zetten. Maar om dat te kunnen doen moet je eerst enkele premissen vaststellen:

– Statistiek berust uiteraard op cijfers. ‘Harde cijfers’ wordt wel gezegd. En ‘cijfers liegen niet’. Maar cijfers kunnen wel onzin verkopen als je ze niet op de juiste wijze interpreteert. En die interpretatie berust op aannames en afspraken die in de logica ook wel ‘premissen’ worden genoemd. Uit de individuele lijstjes van 60 recensenten, journalisten en programmeurs – kortom insiders – wordt de lijst samengesteld van albums die er toe doen. Stel nu eens dat je als minimumcriterium – of premisse – vaststelt dat een album interessant genoeg is om verder over te discussiëren als dat album door tien procent van de samenstellers wordt genomineerd (wat dus betekent dat negentig procent van de samenstellers de plaat in kwestie niet eens de moeite vindt om ook maar op de tiende plaats in zijn of haar lijstje te zetten!).  Daarmee is de lat voor een ‘relevant album’ toch behoorlijk laag gehouden lijkt mij. Door minimaal tien procent genomineerd betekent in het geval van de Oorjaarlijst 2011: door 6 samenstellers. Een blik op de Oor-lijst leert dan dat er onder plaats 16 – Fleet Foxes – een dikke streep moet worden getrokken, met nota bene Fucked up als vreemde ‘indringer’op plek 11. Er is natuurlijk nogal wat voor te zeggen om hier de alternatieve, op nominaties gebaseerde ranglijst te hanteren. Daar komt de streep ook onder nummer 16, maar nu zit Radiohead er opeens bij. Als je het vergelijkt met de ’10%-streep’ in voorgaande jaren krijg je de volgende tabel:

Tabel 2.
jaar Aantal albums door minimaal 10% respondenten genomineerd
2007 22
2008 12
2009 14
2010 21
2011 16

Hoe meer albums door minimaal 10% van de respondenten genomineerd wordt, des te eensgezinder de groep, zou je kunnen zeggen. Dat het resultaat voor 2011 hier ergens tussen die van 2007 en 2008 ligt komt overeen met tabel 1. Verdere vergelijking met tabel 1 leert echter dat de conclusie m.b.t. ‘eensgezindheid’ niet op basis van een enkel gegeven zoals gedefinieerd in tabel 1 of 2 kan worden gebaseerd.

Nog even terug naar het uitgangspunt voor tabel 2: Dat een album door 10% van de respondenten wordt genomineerd (en dus door 90% geheel wordt genegeerd) is toch wel een absolute minimumeis die je aan een album mag stellen om bij consensus ‘bovengemiddeld’ te zijn, was mijn uitgangspunt. Alles daaronder kan redelijkerwijs als ‘middelmaat’ beschouwd worden; niet per se ‘slecht’, maar in praktijk vervangbaar door talloze andere. Waarmee dus direct duidelijk is dat de zogenaamde ‘bubbling under’ lijst in Oor – de albums vanaf plaats 21 – flauwekul is.

– Maakt verder niet uit, want het zijn natuurlijk de bovenste platen die er echt toe doen. Maar hoeveel doen ze er toe? Ik heb hierboven mijn ‘één op tien’ premisse voor relevantie toegelicht. Laten we het echter nu eens niet over ‘relevante’, maar over ‘echt belangrijke’ platen hebben. Albums waar werkelijk over gesproken wordt in het popcircuit. Albums waarover iedereen wel een mening heeft. Wat voor criterium leg je daarvoor aan? Dat is natuurlijk wederom een aanname, een premisse. Omdat ik deze analyse in m’n eentje zit te typen is het volgende niet echt een ‘consensus’, maar ik hoop dat de lezer mijn aanname begrijpt. Ik stel, evenals voorgaande jaren, voor dat een ‘belangrijk album’ een album is dat door minimaal één op de vier samenstellers überhaupt de moeite waard wordt gevonden om in zijn of haar eindlijstje op te nemen – dat impliceert dus dat drie van de vier samenstellers zo’n album niet noemen. Ook die lat is niet onredelijk hoog gelegd, lijkt mij. Dan zijn de belangrijke albums die albums die in 1011 minimaal 15 keer genomineerd worden. Dat blijkt er welgeteld één: PJ Harvey. Kortom, als je je kunt vinden in de door mij hier voorgestelde ‘1 op 4’ premisse, dan bestaat onder de Nederlandse recensenten en programmeurs die meededen aan de Oor-poll de consensus dat ‘Let England Shake’ het enige album is dat die er werkelijk toe deed in 2011.

– Vergelijken met voorgaande jaren levert de volgende tabel op:

Tabel 3
jaar Aantal albums dat door minstens 25% van respondenten genomineerd is
2007 3
2008 3
2009 2
2010 2
2011 1

– Je zou dus – voorzichtig – kunnen stellen dat er in 2011 minder albums door het gezamenlijke Oorlijstjes-corps als ‘belangrijk’ zijn geclassificeerd dan voorgaande jaren. Op de vraag hoe overtuigend de nummer 1 positie van Harvey is ten opzichte van de nummers 2 en 3 in 2011 kom ik later nog terug. Eerst nog even niets anders:

– Ook interessant is de vaststelling hoeveel consensus er bestaat m.b.t. de nummer één positie. Je zou het aantal nominaties gedeeld door het aantal samenstellers het ‘nominatie quotiënt’ (NQ) kunnen noemen. En het aantal behaalde punten gedeeld door het maximaal haalbare aantal punten de ‘score quotiënt’ (SQ). Hoe hoger de quotiëntwaarde des te meer consensus er bestaat m.b.t. die plaat als ‘plaat van het jaar’. Als we kijken naar de nummer één albums van de afgelopen vijf jaar, dan zien we:

Jaar album SQ NQ
2011 PJ Harvey 0,16 0,22
2010 Arcade Fire 0,21 0,32
2009 The XX 0,18 0,27
2008 TV on the Radio 0,21 0,33
2007 Arctic Monkeys 0,20 0,28

Dit zijn geen grote verschillen, al is het verschil tussen 2011 en 2010 statistisch toch wel significant te noemen. Je kunt aan de hand van de statistiek vaststellen dat er onder de samenstellers in 2010 ietsje meer eensgezindheid was over de nummer één positie dan onder de samenstellers van dit jaar.
Om het iets minder abstract te zeggen: Vorig jaar was The Suburbs van Arcade Fire de plaat van het jaar met 106 punten bijeengebracht door vijftig stemmers. Dit jaar won PJ Harvey met maar één puntje meer (107), terwijl er tien lijstjesdeelnemers meer waren (60 in plaats van 50) en je dus een score zou verwachten die zo’n 20% hoger ligt.

Ook over de significantie van het rangorde in de top 20 van 2011 kan nog wel wat opgemerkt worden:

– Bij de statistiek van wetenschappelijke meetresultaten is ‘significantie’ een belangrijk begrip. Een rekenmachine is een dom ding. Die berekent alle mogelijke gegevens die je er in stopt tot talloze cijfers na de komma. Maar je hebt alleen wat aan gemeten verschillen als je zeker weet dat dat verschil niet het gevolg is van toeval of van onnauwkeurigheden in de meetmethode of –apparatuur. Als je in de biologie de verontreiniging van slootwater wilt meten moet je er rekening mee houden dat ook water dat we als ‘schoon’ beschouwen nog een zekere hoeveelheid verontreiniging bevat. Moeilijker wordt het al met het analyseren van door enquêtes verkregen kwantitatieve gegevens in de menswetenschappen. Als je honderd mensen interviewt en 49 zeggen dat ze prettig wonen in hun wijk terwijl 51 procent van de bewoners van dezelfde wijk zegt zich onprettig te voelen, is de conclusie dat een meerderheid zich onprettig voelt onzorgvuldig. Bij zo’n enquête spelen er zoveel verontreinigende factoren mee, dat die twee stemmen verschil absoluut geen significant onderscheid veroorzaken – al is het maar dat ‘klagers’ doorgaans eerder hun verhaal kwijt willen dan mensen met wie het prima gaat. Als 90 mensen zeggen zich onprettig te voelen en 10 mensen prettig, dan kun je echter wel betrouwbaar van een duidelijke meerderheid spreken. Bij onze jaarlijstjes ligt het natuurlijk wel ietsje subtieler. Maar een redelijke minimum eis lijkt mij dat een verschil significant is als het niet door één extra samensteller teniet kan worden gedaan. Eén extra samensteller staat voor een verschil van maximaal 10 punten.

– Een blik op de jaarlijst 2011 leert dan dat de kloof tussen nummer 1 en 2 – PJ Harvey en Wilco – maar liefst 27 punten bedraagt. Dat is zondermeer een significant verschil. Zelfs als er twee jaarlijstjesdeelnemers zouden zijn die bij het maken van hun lijstje even en black out hadden en Wilco überhaupt niet noemden, terwijl ze dat album eigenlijk op nummer 1 hadden willen zetten, dan nog zou Polly 7 punten voor blijven. Een afgemeten toppositie dus, waar statistisch niets op valt af te dingen. Verderop in de lijst zijn de verschillen echter heel wat minder significant.

– Dat begint al bij de nummers 2 en 3, Wilco en Spinvis. Beiden hebben 80 punten. Dat Wilco een plaats hoger staat is slechts het gevolg van één enkele nominatie meer. Van een significant verschil kun je absoluut niet spreken. Eén enkele respondent had Spinvis maar op plek 6 in plaats van plek 8 in z’n lijstje hoeven zetten en de rangschikking zou zijn omgedraaid. Een nihil verschil. Formeel staat Wilco dus wel nummer twee en Spinvis nummer 3. Maar realistisch geïnterpreteerd leren de jaarlijstjes ons dat deze albums ex aequo op de tweede/derde plaats staan.

– Daaronder wordt het echter nog interessanter. Om te beginnen is het verschil tussen het duo Wilco/Spinvis en nummer 4 in de Oorlijst, Gillian Welch, maar liefst 29 punten. Ik hoef niet meer toe te lichten dat dat zondermeer een zeer afgemeten onderscheid is waarvan het uiterst onwaarschijnlijk is dat die nog aan ‘ruis’ of toeval kan worden toegeschreven. Gillian Welch heeft 51 punten. Zakken we vervolgens tien plaatsen in de lijst, dan zien we Destroyer op plek 14 met 40 punten. Dat betekent dat één enkele respondent (op een totaal van zestig) de volgorde van de nummers 4 tot en met 14 compleet op z’n kop kan zetten. Zo had één enkele extra nummer 1 notering in een individueel lijstje Arctic Monkeys kunnen opstuwen van de 12e naar de 4e plek. En één enkele extra nummer 1 notering had Destroyer van plaats 14 naar plaats 6 kunnen promoveren. De onderlinge verschillen tussen de elf albums die op de plaatsten 4 tot en met 14 zijn genoteerd kun je statistisch weinig significantie toekennen. De onomstotelijke realistische interpretatie van de lijst doet ons dus vaststellen dat de volgorde van deze elf albums in de lijst bijna net zo goed door het werpen van een dobbelsteen bepaald had kunnen zijn. Nogmaals, ik heb het hier alleen over de rangorde. Want dat ze in de lijst staan heeft weldegelijk enige relevantie omdat ze, zoals we eerder vaststelden door minimaal 10% van de lijstdeelnemers zijnjn genomineerd.

– Na Destroyer zit er een iets groter ‘gat’ van 4 punten, waarvan de significantie ook betwist kan worden. De albums die daarop volgens verschillen onderling ook weer nauwelijks in score. Daar komt nog eens bij dat ze vanaf plek 17 door minder dan 10% van de respondenten genomineerd werden en dus ook daardoor al nauwelijks meer relevant zijn.

Samengevat levert dit de volgende realistische conclusies op m.b.t. de Oorjaarlijst 2011:
De cijfers over het totaal aantal genomineerde albums door de deelnemende respondenten, in combinatie met de ‘ruis’ – slechts 1 keer genoemd – leert dat het deelnemersveld aan journalisten, boekers, dj’s, etc in grote lijnen net zo gemêleerd was als de voorgaande vier jaar. Afgaand op de lijstjes heeft PJ Harvey onomstotelijk het beste album afgeleverd op enige, maar significante afstand gevolgd door Spinvis en Wilco. Dit duo heeft een niet meer in te lopen voorsprong op een peletonnetje van elf albums, bestaande uit Gillian Welch, James Blake, Kurt Vile, Adele, Vaccines, Elbow, Bon Iver, Fucked Up, Arctic Monkeys, Pete & the Pirates en Destroyer, waarbij iedere willekeurige onderlinge rangschikking mogelijk is zonder dat het significante verschillen oplevert. En daaronder, vanaf plek 15, hadden even zo goed talloze andere albums kunnen staan. Daarvoor komen vele tientallen albums in aanmerking en het is daarom onzinzin om de lijst tot plek 50 te laten doorlopen.

En verder nog:

– Er zijn nog wat andere aardige conclusies te trekken, zonder inhoudelijk op de keuzes van de samensteller in te hoeven gaan. De ‘meest representatieve’ en de ‘meest excentrieke’ samensteller, bijvoorbeeld. Wat eerstgenoemde betreft: Die titel moet dit jaar verdeeld worden tussen John Denekamp, Joris Rietbroek, Atze de Vrieze, Menno Pot en Rob van de Zwaan. Zij allen hadden ‘nul’ unieke albums in hun lijstje; andersom gezegd: zij allen hebben hun lijstje samengesteld uit albums die ook al door minstens één andere deelnemer zijn genomineerd. Uit dit vijftal zou een ’aller meest representatieve’ geselecteerd kunnen worden door bijvoorbeeld uit te zoeken wie van hen het meeste albums in de eindlijst top-10 heeft. Maar zover ben ik niet gegaan; het moet wel een aardigheidje blijven, deze analyse. Vorig jaar was er trouwens maar één deelnemer met nul unieke albums. Verder behoorden Menno Pot, Atze de Vrieze, Joris Rietbroek en John Denekamp in het verleden al vaker tot de ‘meest representatieve’ deelnemers.
– En dan de meest ‘excentrieke’ deelnemer. Dat is uiteraard de respondent met de meeste unieke nominaties. Er is dit jaar – evenals vorig jaar – geen enkele respondent die tien albums in zijn/haar lijstje had staan die verder door niemand genoemd werden. Twee deelnemers leverden echter negen unieke nominaties: Saul van Stapele en Kees Smallegange.

Tenslotte nog wat trivia:

– Op een totaal van 312 genomineerde albums waren er in 2011 24 van eigen bodem. Dat is bijna 8% en dat percentage is de vier afgelopen jaren waarin ik het geteld heb vrijwel constant gebleken. Wat wel varieert is het aantal Nederlandse albums dat de top-20 van de eindlijst haalt. In 2011 is dat er één (Spinvis). In 2010 geen enkele. In 2009 drie (Moss, Anne Soldaat en De Staat) en in 2008 alleen Voicst. Opmerkelijk: Op Voicst na allemaal albums die bij het Excelsior-label zijn verschenen.

– Een laatste feitje: Bij de 60 samenstellers van de jaarlijst 2011 zaten vier vrouwen. Een record, want in 2010 waren er dat nog drie, net als in 2008, terwijl er in 2009 geen enkele vrouw mee deed. In 2007 waren er twee vrouwelijke respondenten. Natuurlijk is ‘lijstjes maken’ een typisch mannending, zoals alle triviahobbies. Maar dat neemt niet weg dat een andere man-vrouw verdeling bij de deelnemers ongetwijfeld een andere eindlijst had opgeleverd. De lijstjes van de vier vrouwelijke lijstjesdeelnemers van 2011 apart bekijken levert geen relevante data op. Bij de top-2000 daarentegen – waarvoor ook nog altijd significant meer mannen dan vrouwen stemmen, is het aantal vrouwelijke deelnemers zo groot, dat daar wel een aparte statistiek op bedreven kon worden. Bij een microsymposium, onlangs in Hilversum, waarbij wetenschappers hun licht lieten schijnen op het verschijnsel Top-2000, bleek dat vrouwen weldegelijk andere muzikale voorkeuren hebben dan mannen. Als dat geldt voor ‘gewone luisteraars’ is het niet onredelijk om aan te nemen dat dat bij ‘professionele luisteraars’ niet anders is. Een en ander neemt echter niet weg dat in de Oor top-10 van 2011 maar liefst drie albums staan waarop een vrouw de hoofdrol speelt. En dat is in ieder geval in de voorgaande vijf edities nog niet voorgekomen.

– Betekent al deze relativering nu dat het maken van jaarlijstjes een onzinnige bezigheid is? Wis en waarachtig niet! Het is voor velen – waaronder ondergetekende – een heerlijk tijdverdrijf in de laatste weken voor kerst. Het leidt niet zelden tot fascinerende discussies. En het laat je altijd weer kennis maken met nieuwe muziek. Wat wil een mens nog meer?

Tot volgend jaar maar weer,

Peter Bruyn

Advertenties