Moet je weten hoe een tool werkt? Een verslag van DHBenelux

Afgelopen week was ik op de vierde editie van DHBenelux, die dit jaar in Utrecht werd gehouden. Met ruim 200 deelnemers die luisterden naar bijna 100 verschillende presentaties, demo’s, posters en panels is het een interessante jaarlijkse momentopname van de status van digital humanities in de Benelux. Het is onmogelijk om de hele conferentie samen te vatten in een enkel verslag (al is het maar omdat ik niet bij elke sessie kon zijn). Toch zou ik de conferentie samenvatten als met name een discussie omtrent hoe geesteswetenschappers om moeten gaan met de infrastructuren die ontwikkeld worden in het kader van digital humanities. Een mooi voorbeeld hiervan was de presentatie van Carlos Martinez-Ortiz, betrokken bij het CLARIAH programma voor media onderzoekers, die stelde dat (media) onderzoekers twee dingen nodig hebben: 1) toegang tot collecties, en 2) tools om deze data te analyseren. De ontwikkelde infrastructuren proberen dit beide te bieden, en zo onderzoek makkelijker te maken.  

Tijdens de opening noemde Frans Wiering, digital humanities research fellow aan de Universiteit Utrecht, echter de paradox van technologie: “the same technology that simplifies life by providing more functions in each device also complicates life by making the device harder to learn, harder to use. This is the paradox of technology” (Norman, The Design of Everyday Things, 1988). Een steeds terugkerende discussie is dan ook in hoeverre onderzoekers moeten weten wat de technologie uitvreet, en in hoeverre onderzoekers de technologie moeten leren begrijpen. Ralf Futselaar, historicus bij het NIOD, vergeleek in een panel over tekst mining de nieuwe digitale methoden met de introductie van nieuwe auto’s, waarbij de eigenaar niet zelf leerde autorijden maar dat overliet aan een chauffeur. Hierbij kunnen we ons afvragen of dit laat zien dat het prima is dat onderzoekers de techniek overlaten aan een andere persoon, of dat het een tijdelijke kwestie is waarbij onderzoekers uiteindelijk ook leren zelf achter het stuur te zitten. Serge ter Braake, historicus aan de VU en werkzaam geweest  in verschillende digital history projecten, deelde dit probleem op in drie vragen: 1) wanneer weet een onderzoeker genoeg van de werking van een tool, 2) wanneer weet een onderzoeker genoeg van de dataset, en 3) op welk moment is het niet meer de moeite waard om uit te zoeken hoe een tool en dataset in elkaar steken, en makkelijk om ‘close reading’ te doen?

Mijn reactie hierop tijdens de vragenronde was of deze derde vraag niet ook de andere kant op kan: op welk moment is het niet meer de moeite waard om uit te zoeken hoe een tool en dataset in elkaar steken, en moet de onderzoeker maar vertrouwen dat de onderzoeksmethode correct werkt? Het is namelijk niet altijd mogelijk om volledig uit te leggen hoe de technologie werkt, zoals ook bleek uit de presentatie van Sally Chambers, digital humanities research coördinator van de Universiteit Gent, en haar collega’s. In hun ontwikkeling van een methode voor evalueren van data en tools bespraken zij de tool TRACER, die wel een uitgebreide documentatie heeft maar toch niet alle algoritmes uitlegt. De reden is simpel: de tool bevat ruim 700 algoritmes, en deze allemaal uitleggen is te veel werk, zowel voor de ontwikkelaar als voor de gebruiker. Tijdens de tool criticism workshop, die de dag voor de conferentie plaatsvond, werd deze afweging ook zichtbaar: aan de ene kant schrokken onderzoekers van de enorme hoeveelheid tools die er beschikbaar is (zoals geïllustreerd door de behoorlijk lange lijst tools van het Digital Methods Institute), zodat onderzoekers stelden af te gaan op wat ze kennen of wat collega’s gebruiken. Aan de andere kant zeiden onderzoekers dat ze graag een CSV exporteren omdat ze in Excel meer controle ervaren dan in de beschikbare online tools.

Terugkomend op de presentatie van Carlos Martinez-Ortiz was de oplossing vanuit bijvoorbeeld CLARIAH om een online omgeving te creëren, waarbij onderzoekers toegang hebben tot allerlei online collecties en een keuze kunnen maken uit verschillende tools voor analyses. Niet alleen kunnen dit soort infrastructuren zorgen dat deze tools gebruiksvriendelijk zijn, ook kunnen zij zorgen voor toegang tot collecties die niet openbaar zijn maar licenties vereisen, zodat onderzoekers zich daar niet meer druk om hoeven maken. Een vraag die bleef hangen is in hoeverre deze infrastructuren inderdaad het antwoord zijn op de problemen voor toegang tot collecties en begrip van methoden in digital humanities. Hopelijk kunnen we daar volgend jaar meer over horen als het nieuwe KNAW Humanities Cluster DHBenelux organiseert van 6 tot 8 juni 2018. 

- Max Kemman, Luxembourg Centre for Contemporary and Digital History

Een Engelstalig, uitgebreider versie van dit verslag is te vinden op de website van het Luxembourg Centre for Contemporary and Digital History.

Reageren

(If you're a human, don't change the following field)
Your first name.
(If you're a human, don't change the following field)
Your first name.

Plain text

  • Geen HTML toegestaan.
  • Adressen van webpagina's en e-mailadressen worden automatisch naar links omgezet.
  • Regels en alinea's worden automatisch gesplitst.
CAPTCHA
Deze vraag is bedoeld om te controleren of u een menselijke bezoeker bent en om spam te voorkomen.
Beeld-CAPTCHA
Type de karakters die u in het plaatje ziet.

Gepost op:

vrijdag 14 juli 2017 - 9:12

Soort

Delen