Jaarlijst-analyse 2009



Dovnload 28.22 Kb.
Datum25.07.2016
Grootte28.22 Kb.
Jaarlijst-analyse 2009.
In het december/januarinummer van OOR staan zoals gebruikelijk de jaarlijstjes en het onverbiddelijke eindoordeel. Smullen voor de lijstofielen – waartoe ik mijzelf al enige decennia mag rekenen. Dit jaar evenals in 2008 een top-20, aangevuld met een ‘bubbling under’ lijst die zelfs tot de vijftigste plaats doorloopt.

Echter, hoe relevant zijn deze cijfers? Kun je wel tot in het oneindige blijven doortellen en rangschikken, of moet je ergens een duidelijke streep trekken om de zaken een beetje serieus betekenisvol te houden? Denk aan al die berichtjes die als resultaten van wetenschappelijk onderzoek de kranten halen omdat journalisten er dol op zijn, maar waar wetenschappers graag een serie kanttekeningen bij plaatsen: ‘Twee glaasjes wijn per dag zijn goed voor het hart’, ‘De Nederlander doet het tweeënhalve keer per week’. Nieuws dat zich goed leent voor een pakkende kop en twee of drie aanvullende regels. Maar wat zeggen zulke onderzoeksresultaten werkelijk? Wat was er eigenlijk onderzocht en hoe omvangrijk was het onderzoek?

Laat ik mij hier echter tot de popalbum-jaarlijstjes beperken. Een middagje tellen, hertellen en toetsen aan wat statistische principes leverde het volgende op.
Om te beginnen de top-20 zoals die in OOR verschenen is (met een kleine correctie!), maar nu met het behaalde puntenaantal – nummer één in ieder lijstje kreeg 10 punten, nummer twee 9, etc. Plus tussen haakjes het aantal keren dat het album genomineerd werd.
1 The XX – XX 107 (16)

2 Grizzly Bear – Veckatimest 93 (15)

3 Fuck Buttons – Tarot Sport 89 (14)

4 Animal Collective 73 (10)

5 Moss – Never be Scared / Don’t be a Hero 72 (12)

6/7 Anne Soldaat – In Another Life 53 (8)

6/7 The Horrors – Primary Colours 53 (8)

8 Arctic Monkeys – Humbug ` 47 (7)

9 Editors – In this Light and on this Evening 47 (6)

10 Florence & the Machine 43 (5)

11 Bill Callahan – Sometimes I wish we were an Eagle 35 (4)

12 The Pains of being Pure at Heart – idem 34 (6)

13 Dirty Projectors – Bitte Orca 33 (4)

14 DM Stith – Heavy Ghost 32 (5)

15 Mastodon – Crack the Skye 32 (4)

16 Wilco – Wilco (the Album) 31 (6)

17 De Staat – Wait for Evolution 30 (7)

18 The Low Anthem – Oh my God, Charlie Darwin 28 (5)

19 Fever Ray – Fever Ray 27 (4)

20 Hell – Teufelswerk 27 (3)


De oplettende lezer ziet dat de nummers 18 en 19 verwisseld zijn ten opzichte van de in OOR gepubliceerde lijst. Telling en hertelling leren dat er bij de calculatie door de OOR-redacteuren iets mis moet zijn gegaan.

Voordat ik het over de relevantie van deze lijst ga hebben eerst even een opmerking over de wijze van samenstellen. Doorslaggevend is hier het puntenaantal en bij gelijk puntenaantal is het aantal nominaties bepalend. Er is echter ook iets te zeggen voor een telling waarbij het aantal nominaties het zwaarste weegt en daarna pas – bij gelijk aantal nominaties – het totaal aantal punten dat een album scoort. Immers: de lijstjessamenstellers hechten minstens zoveel aan de vraag welke tien platen in hun lijstje komen – en dus in OOR worden afgedrukt – als aan de precieze volgorde van dat lijstje. Onderbouwing voor die gedachte vond ik bij het lezen van de blogs van diverse samenstellers. De vraag welke albums de top-10 überhaupt zouden halen leverde meer getob op dan de exacte positie van de tien geselecteerde albums.


Een alternatieve Top 20 waarbij het aantal nominaties doorslaggevend is zou er zo uitzien:
1 The XX – XX 107 (16)

2 Grizzly Bear – Veckatimest 93 (15)

3 Fuck Buttons – Tarot Sport 89 (14)

4 Moss – Never be Scared / Don’t be a Hero 72 (12)

5 Animal Collective 73 (10)

6/7 Anne Soldaat – In Another Life 53 (8)

6/7 The Horrors – Primary Colours 53 (8)

8 Arctic Monkeys – Humbug ` 47 (7)

9 De Staat – Wait for Evolution 30 (7)

10 Editors – In this Light and on this Evening 47 (6)

11 The Pains of being Pure at Heart – idem 34 (6)

12 Wilco – Wilco (the Album) 31 (6)

13 Monsters of Folk 25 (6)

14 Health – Get Colour 18 (6)

15 Florence & the Machine 43 (5)

16 DM Stith – Heavy Ghost 32 (5)

17 The Low Anthem – Oh my God, Charlie Darwin 28 (5)

18 2562 – Unbalance 26 (5)

19 White Denim – Fits 25 (5)

20/21 Kyteman – The Hermit Sessions 22 (5)

20/21 A Place to Bury Strangers – Exploding Head 22 (5)

De opvallendste verschillen tussen de beide lijsten zijn, dat Moss nog een plaatsje stijgt, van 5 naar 4 en dat De Staat plots vanaf plaats 17 de top-10 binnenkomt.



De meeste wijzigingen vind je echter tussen de plaatsen 10 en 20, waarvan de relevantie – zoals we later nog zullen zien – discutabel is en je slechts in een enkel geval van werkelijk significante verschuivingen kunt spreken. Een interessante uitzondering is de groep Health die met een totaal van 18 punten in de oorspronkelijke lijst slechts op nummer 43 stond, maar wel 6 keer werd genomineerd en dus in de alternatieve rangschikking naar nummer 14 schiet; zelfs nog boven de oorspronkelijke ‘top tiener’ Florence and the Machine.
Er is uit de vergelijking van beide lijsten met een beetje goede wil nog een aardige conclusie te trekken: In de onderste gelederen van de ‘alternatieve top-20’ komen Kyteman en 2562 binnen, terwijl ik reeds opmerkte dat Moss en De Staat stijgen. Je kunt dus voorzichtig concluderen dat de rangschikking naar aantal nominaties gunstig uitpakt voor de Nederlandse acts. Dat laat zich – maar nu interpreteer ik! – ook wel verklaren: Je kunt ervan uitgaan dat de Nederlandse albums door de media-aandacht meer bekend zijn bij de lijstjessamenstellers dan het gigantische aanbod aan internationale releases. En dat zij dus relatief meer Nederlandse albums in hun overweging meenemen, waardoor ook de kans dat die in hun top-10 komt vanzelf groter wordt. Maar dat betekent niet dat ze ook bovengemiddeld goed zijn. Dus dat maakt de kans iets groter op ‘meer nominaties maar niet in de toppen van de individuele lijstjes’
Dan nu het echte werk. De relevantie van de lijst en de vraag hoe significant de verschillen zijn. Daarvoor gaan we terug naar de oorspronkelijke – maar wel gecorrigeerde – OORlijst.
Wat de relevantie betreft:


  • Er deden dit jaar zestig samenstellers mee aan de jaarlijstjes. Dat is iets minder dan in 2008 (64) maar wel weer significant meer dan in 2007, toen er 50 samenstellers waren en 2006 en 2005, toen er in beide gevallen 44 samenstellers deelnamen. Hoe meer deelnemers, hoe betrouwbaarder de statistiek en hoe meer mogelijkheden om de resultaten succesvol te analyseren en interpreteren.




  • Die 60 deelnemers van 2009 hadden in theorie in totaal 10 x 60 = 600 verschillende albums kunnen nomineren. Ze nomineerden in totaal 332 albums, wat neerkomt op 5,53 ‘unieke albums’ per samensteller. Hoe meer unieke albums per lijstje, hoe meer de samenstellers van elkaar verschillen in hun opvatting wat de belangrijke platen van het jaar zijn. Ter vergelijking: In 2008 werd 5,03 uniek album per samensteller genoemd. In 2007 was dat cijfer 5,56, in 2006 was het 6,16 en in 2005 was het 5,64. Daaruit mag je concluderen dat de samenstellers het in 2009 weer een tikkeltje minder met elkaar eens waren dan in 2008 – dat verschil is wel significant – maar dat de mate van onderlinge overeenstemming nauwelijks verschilt van de jaren daarvóór.




  • Van de 332 albums die in totaal genomineerd werden door de samenstellers van 2009, werden er maar liefst 231 slecht één keer genoemd. Dat is 70%. Op albums die slechts één keer genoemd worden is nauwelijks serieuze statistiek beoefenen. Eén keer genomineerd worden is niet zelden een toevalstreffer. Wat ons bij de jaarlijsten interesseert zijn die albums waarover niet alle, maar toch veel samenstellers het eens zijn. Kortom 231 van de 332 genomineerde albums zijn eigenlijk slechts ‘ruis’ binnen de statistiek. Maar doen de 101 resterende albums, die dus twee of meer keer genomineerd zijn, er dan allemaal statisch wel toe? Ook daar kun je serieuze vraagtekens bij zetten. Maar om dat te kunnen doen moet je eerst enkele premissen vaststellen:




  • Statistiek berust uiteraard op cijfers. ‘Harde cijfers’ wordt wel gezegd. En ‘cijfers liegen niet’. Maar cijfers kunnen wel onzin verkopen als je ze niet op de juiste wijze interpreteert. En die interpretatie berust op aannames en afspraken die in de logica ook wel ‘premissen’ worden genoemd. Uit de individuele lijstjes van 60 recensenten, journalisten en programmeurs - kortom insiders – wordt de lijst samengesteld van albums die er toe doen. Stel nu dat je als minimum-criterium – of premisse - vaststelt dat een album interessant genoeg is om verder over te discussiëren als dat album door tien procent van de samenstellers wordt genomineerd (wat dus betekend dat negentig procent van de samenstellers de plaat in kwestie niet eens de moeite vind om ook maar op de tiende plaats in zijn of haar lijstje te zetten). Daarmee is de lat voor een ‘relevant album’ toch behoorlijk laag gehouden lijkt mij. Door minimaal tien procent genomineerd betekent door 6 samenstellers. Een blik op de Oor-lijst leert dan dat er onder plaats 9 – de Editors - een dikke streep getrokken moet worden. Hoewel er iets voor te zeggen is om hier de ‘alternatieve, op het aantal nominaties gebaseerde, lijst te hanteren. Dan staat de streep onder nummer 14 (Health). Echter, als je je realiseert dat het aantal door die groep behaalde punten (18) in theorie door twee samenstellers bijeengebracht kan worden is duidelijk dat hier niet al teveel gewicht aan moet worden gegeven.




  • Dit geeft wel aan dat de ‘Bubbling Under lijst’ – de nummers 21 tot nummer 50 helemaal geen relevantie meer heeft. The Virgins staan bijvoorbeeld op nummer 50; maar als er nog één samensteller was geweest die dat album op nummer 1 in z’n persoonlijke lijstje had gezet, was dat album zomaar voorbij The Monsters of Folk naar nummer 25 geschoten. Om een lang verhaal kort – nou ja, kort – te houden: Na de veertiende plek daalt de relevantie van de eindlijst dramatisch en de ‘bubbling under lijst’ telt statistisch al helemaal niet meer mee.




  • Maakt verder niet uit, want het zijn natuurlijk de bovenste platen die er echt toe doen. Maar hoeveel doen ze er toe? Ik heb hierboven mijn ‘één op tien’ premisse voor relevantie toegelicht. Laten we het echter nu eens niet over ‘relevante’, maar over ‘echt belangrijke’ platen hebben. Albums waar werkelijk over gesproken wordt in het popcircuit. Albums waarover iedereen wel een mening heeft. Wat voor criterium leg je daarvoor aan? Dat is natuurlijk wederom een aanname, een premisse. Omdat ik deze analyse in mijn eentje zit te typen heb ik natuurlijk geen weerwoord, maar ik hoop dat de lezer mijn aanname begrijpt. Ik stel voor dat een ‘belangrijk album’ een album is dat door minimaal één op de vier samenstellers überhaupt de moeite waard wordt gevonden om in zijn of haar eindlijstje op te nemen – dat impliceert dus dat drie van de vier samenstellers zo’n album niet noemen. Ook die lat is toch niet onredelijk hoog gelegd, lijkt mij. Dan zijn de belangrijke albums die albums die minimaal 15 keer genomineerd worden, dus de top-2 van bovenstaande lijst. Conclusie: Alleen met betrekking tot The XX en Grizzly Bear bestaat er onder de Nederlandse recensenten en programmeurs die meededen aan de OOR-poll de consensus dat dat albums zijn die er werkelijk toe deden in 2009.




  • Even ter vergelijking: In 2008 waren er 64 samenstellers en zouden de echt belangrijke albums dus door minimaal 16 keer genomineerd moeten zijn. Dat gold dat jaar voor drie albums (TV on the Radio, Fleet Foxes en Vampire Weekend). In 2007 waren dat er ook drie (Artic Monkeys, Amy Winehouse en Arcade Fire)




  • Ook interessant is de vaststelling hoeveel consensus er bestaat met betrekking tot de nummer één positie. Je zou het aantal nominaties gedeeld door het aantal samenstellers het ‘nominatie quotiënt’ (NQ) kunnen noemen. En het aantal behaalde punten gedeeld door het maximaal haalbare aantal punten de ‘score quotiënt’ (SQ). Hoe hoger de quotiëntwaarde des te meer consensus er bestaat met betrekking tot die plaat als ‘plaat van het jaar’. Als we kijken naar de nummer één albums van de afgelopen drie jaar, dan zien we:

Jaar album SQ NQ

2009 The XX 0,18 0,27

2008 TV on the Radio 0,21 0,33

2007 Arctic Monkeys 0,20 0,28


Dit zijn geen grote verschillen, al is het verschil tussen 2009 en 2008 statistisch toch wel significant te noemen. Je kunt aan de hand van de statistiek vaststellen dat er onder de samenstellers in 2008 ietsje meer eensgezindheid was over de nummer één positie van TV on the Radio dan dit jaar met betrekking tot The XX. Maar het betreft hier een nuance.

Ook over de significantie van de rangorde in het jaarlijstje van 2009 kan nog wel wat opgemerkt worden:




  • Bij de statistiek van wetenschappelijke meetresultaten is ‘significantie’ een belangrijk begrip. Een rekenmachine is een dom ding. Die berekent alle mogelijke gegevens die je er in stopt tot talloze cijfers na de komma. Maar het hebt alleen wat aan gemeten verschillen als je zeker weet dat dat verschil niet het gevolg is van toeval of van onnauwkeurigheden in de meetmethode of –apparatuur. Als je in de biologie de verontreiniging van slootwater wilt meten moet je er rekening mee houden dat ook water dat we als ‘schoon’ beschouwen nog een zekere hoeveelheid ‘verontreiniging’ bevat. Moeilijker wordt het al met het analyseren van door enquêtes verkregen kwantitatieve gegevens in de menswetenschappen. Als je honderd mensen interviewt en 49 zeggen dat ze prettig wonen in hun wijk terwijl 51 procent van de bewoners van dezelfde wijk zegt zich onprettig te voelen, mag je niet zeggen dat een meerderheid zich onprettig voelt. Bij zo’n enquête spelen er zoveel verontreinigende factoren mee, dat die twee stemmen verschil absoluut geen significant onderscheid is. Als negentig mensen zeggen zich onprettig te voelen en tien mensen prettig, dan kun je echter wel betrouwbaar van een duidelijke meerderheid spreken. Bij onze jaarlijstjes ligt het natuurlijk wel ietsje subtieler. Maar een redelijke aanname is dat een verschil significant is als die niet door één extra samensteller kan worden beïnvloed. Eén extra samensteller staat voor een verschil van maximaal 10 punten.




  • Een blik op de jaarlijst 2009 leert dan dat de kloof tussen nummer 1 en 2 – The XX en Grizzly Bear – absoluut significant is. Dat onderstreept de positie van The XX als album van het jaar, zou je kunnen stellen.




  • Ook het ‘gat’ van 20 punten tussen nummer 5 en 6/7 zorgt voor een significante kloof. Binnen die top-5 staan de nummers 2 en 3 ten opzichte van elkaar niet zo stevig. Het onderlinge verschil in score is weinig significant. Er was maar heel weinig voor nodig geweest om Fuck Buttons boven Grizzly Bear te doen eindigen. Dat geldt nog nadrukkelijker voor Moss en Animal Collective. Dat verschil in score is nog minder significant. We zien in de ‘alternatieve lijst’ ook hoe Moss de Amerikanen voorbij streeft.




  • Vanaf plaats 11 in de lijst zijn de verschillen in score nauwelijks nog significant te noemen. Zoals al eerder vastgesteld is er maar één samensteller voor nodig om een album vanaf plaats elf een diepe duikeling in de lijst te laten maken of als een raket omhoog te laten schieten.

En verder nog:




  • Er zijn nog wat andere aardige conclusies te trekken, zonder inhoudelijk op de keuzes van de samensteller in te hoeven gaan. De ‘meest representatieve’ en de ‘meest excentrieke’ samensteller, bijvoorbeeld. Wat eerstgenoemde betreft: Er zijn in 2009 twee samenstellers bij wie alle genomineerde albums ook al door minstens één van de andere samenstellers worden genoemd: Johan Gijsen en Jasper van Vugt. Beiden zijn dus behoorlijk ‘representatief’. Toch is Jasper van dit tweetal de meest representatieve. Vijf van de albums die hij nomineerde behaalden de uiteindelijke top-20. Bij Johan waren dit er slechts twee. (In 2008 waren er nog zes deelnemers zonder ‘unieke’ albums: Peter van Brummelen, Tom Engelshoven, Menno Pot, Arnold Scheepmaker, Ron van der Sterren en Atze de Vrieze.)




  • De meest excentrieke deelnemer is uiteraard die wiens lijstje het minst overeenkomt met enig ander lijstje. Die titel gaat dit jaar voor de tweede achtereenvolgende keer naar Marcel Haerkens die negen albums nomineerde die door helemaal niemand anders genoemd zijn. Vorig jaar waren dat er in zijn geval overigens nog tien! Hij wordt op de voet gevolgd door Hans van den Heuvel, Guuz Hoogaerts, John van Luyn, Kees Smallegange en Frans Steensma met ieder acht unieke nominaties,

Tenslotte nog enkele trivia:



  • Op een totaal van 332 genomineerde albums waren er in 2009 26 producten van eigen bodem. Dat is 8 %. Overigens een gelijk percentage als in 2008, terwijl er toch voortdurend wordt gesproken over het goede jaar voor de Nederlandse pop. Dat zit hem dus niet in de ‘breedte'! In 2008 haalde echter maar één Nederlands album de top-20 en nu zijn dat er drie. In 2008 werden 10 van de 26 genomineerde Nederlandse albums door méér dan één samensteller genoemd. In 2009 zijn dat er 14 van de 26. Ook in dat opzicht is er sprake van toenemende score voor het Nederlandse product.




  • Een laatste statistisch feitje: Bij de 60 samenstellers van de jaarlijst 2009 zat geen enkele vrouw. In 2008 waren dat er nog 3. In 2007 en 2006 waren het er 2. Ik laat een ieder zijn/haar eigen conclusie. En uiteraard zijn het doorgaans mannen die hun tijd doden met onbenulligheden als lijstjes, voetbal en religie. Maar het maakt natuurlijk wel nieuwsgierig waar de andere helft van de Nederlandse bevolking naar luistert.

Tot volgend jaar maar weer,


Peter Bruyn




De database wordt beschermd door het auteursrecht ©opleid.info 2019
stuur bericht

    Hoofdpagina