Luc van Buuren (burran@euronet.nl), Linguavox, Bloemendaal
Tina Cambier-Langeveld en Jos Vermeulen (t.cambier@nfi.minjus.nl), Nederlands Forensisch Instituut
Janienke Sturm (janienke.sturm@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen
Louis ten Bosch (tenbosch@LandS.let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen
Ton Wempe, Jeannette van der Stelt en Louis C.W. Pols ({Jeannet.van.der.Stelt, Louis.Pols, ton.wempe}@hum.uva.nl), Leerstoelgroep Fonetische Wetenschappen/ACLC Universiteit van Amsterdam
Ilse Meezen (Ilse.Meezen@student.uva.nl), Universiteit van Amsterdam
Wilbert Heeringa en Charlotte Gooskens ({heeringa, c.s.gooskens}@let.rug.nl), Alfa-Informatica, Scandinavische talen en culturen, Rijksuniversiteit Groningen
Renée van Bezooijen (R.v.Bezooijen@let.kun.nl), Algemene Taalwetenschap en Dialectologie, Universiteit van Nijmegen
Emmanuel Keuleers1, Gert Durieux2 en Evelyn Martens2 (emmanuel.keuleers@ua.ac.be), 1) Centrum voor Psycholinguïstiek, Universiteit Antwerpen 2) Centrum voor Nederlandse Taal en Spraak, Universiteit Antwerpen
Rachel Kemps, Mirjam Ernestus, Robert Schreuder en Harald Baayen (Rachel.Kemps@mpi.nl), Max Planck Instituut voor Psycholinguïstiek en Katholieke Universiteit Nijmegen
Esther Janse (Esther.Janse@let.uu.nl), Universiteit Utrecht
Hidetoshi Shiraishi (toshi_shiraishi@hotmail.com), afd.Taalwetenschap Faculteit der Letteren Rijksuniversiteit Groningen
Vincent J. van Heuven en Roos Genet (V.J.J.P.van.Heuven@let.leidenuniv.nl), ULCL/Opleiding ATW UL
Christophe Van Bael (c.v.bael@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen
Diana Binnenpoorte en Simo Goddijn (D.Binnenpoorte@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen
Voor meer informatie:Rob van Son |
Voor koffie en thee wordt gezorgd. |
Luc van Buuren (burran@euronet.nl), Linguavox, Bloemendaal
In een fonologische transcriptie (incl. accent-markering) van het begin van The Story of Arthur the Rat door mijzelf ingesproken zijn de syllabeduren aangegeven volgens een viertal timing-regels. Vervolgens zijn de syllabeduren gemeten in centiseconden om te zien in hoeverre deze regels wel of niet kloppen. Hiervan wordt verslag gedaan.
In een dito transcriptie van Le Rat Arthur ingesproken door een Française heb ik de syllabeduren eerst op het oor vastgesteld, en vervolgens eveneens gemeten in centiseconden om te zien hoe (on)betrouwbaar mijn auditorische analyse was. Ook hiervan verslag. Verder nog een eerste poging tot het opstellen van accent- en timing-regels voor het Frans, en wat meer algemene opmerkingen over rhythme in beide talen. Zo mogelijk hoop ik voor 19 December ook nog iets te kunnen doen aan Arthur de Rat en Arthur die Ratte.
Tina Cambier-Langeveld en Jos Vermeulen (t.cambier@nfi.minjus.nl), Nederlands Forensisch Instituut
Het Nederlands Forensisch Instituut (NFI) te Rijswijk verricht op jaarbasis ongeveer 80 onderzoeken op het gebied van spraak. Het merendeel van deze onderzoeken betreft vergelijkend spraakonderzoek, waarbij het gaat om de vraag of spraakfragmenten van een onbekende spreker (het betwiste materiaal) al dan niet geproduceerd zijn door een bekende spreker (de verdachte). Het betwiste materiaal is meestal afkomstig van door de politie getapte telefoongesprekken.
In de schrijvende pers, in films en tv-series en ?wellicht dientengevolge? ook in fonetische kringen worden nogal eens voorstellingen van forensische sprekerherkenning gegeven die niet stroken met het onderzoek zoals dat aan het NFI uitgevoerd wordt. In deze presentatie zal daarom gepoogd worden een accuraat beeld te geven van het werk van de forensische spraakonderzoekers werkzaam bij het NFI en van de manier waarop de bevindingen gerapporteerd worden aan de opdrachtgever.
Janienke Sturm (janienke.sturm@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen
Binnen het IOP-MMI project MATIS (Multimodal Access to Transactions and Information Services) is een multimodaal dialoogsysteem gebouwd voor treinreisinformatie. Het systeem accepteert zowel gesproken invoer als invoer door middel van een pen op een scherm en geeft tevens uitvoer in gesproken vorm en via het scherm. De bruikbaarheid van het interface is geëvalueerd door middel van twee gebruikerstesten. In de eerste gebruikerstest is het multimodale interface vergeleken met twee unimodale interfaces die dezelfde informatie bieden (te weten de Reisplanner op internet en een puur gesproken dialoogsysteem). De resultaten van deze gebruikerstest laten zien dat het multimodale systeem sneller en succesvoller is dan het gesproken dialoogsysteem en dat de gebruikerstevredenheid stijgt. Vanwege de mogelijkheid tot toetsenbordinvoer was de internetversie van het systeem echter het snelste en daardoor het meest gewaardeerd. In de tweede gebruikerstest is het huidige multimodale interface, waarin de dialoog gestuurd wordt door de gesproken prompts van het systeem, vergeleken met een alternatieve implementatie waarin er door het systeem geen vragen gesteld wordt. Deze evaluatie laat zien dat een systeem waarin geen gesproken dialoog plaatsvindt sneller is, en bovendien de voorkeur heeft van gebruikers omdat het transparanter is en daardoor makkelijker te bedienen.
Louis ten Bosch (tenbosch@LandS.let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen
Het COMIC-project (www.mpi.nl/comic) bestudeert het gebruik van multimodale in/uitvoer en van automatisch redeneren in mens-machine communicatie. Het project heeft een theoretisch en praktisch doel die overigens tamelijk verweven zijn. Het praktisch doel is het creeren van een werkend prototype voor een design-systeem dat het ontwerpen van een badkamer ondersteunt. Het design van een badkamer is gekarakteriseerd door een zeer groot aantal opties waarvan de meeste alleen aan specialisten bekend zijn. De gebruiker -- die meestal geen expert is -- moet door de applicatie op een informatieve manier door een oerwoud van mogelijkheden worden geleid. Dat oerwoud van mogelijkheden wordt afgegrensd door logische, fysische en esthetische regels die binnen het applicatiedomein gelden. De input van de gebruiker is multimodaal: zowel spraak als 2-dimensionale gebaren (tekeningen, handschrift, aanwijzen enz.) worden door het systeem geinterpreteerd. De automatische spraakherkenner en automatische gebarenherkenner worden gekoppeld en gevolgd door een redeneersysteem (een 'intelligente' dialoogmanager) dat fouten in de spraak/gebaarherkenning probeert op te lossen door gebruik te maken van de 'hogere-orde' kennis in en over het domein. Het onderzoeksdoel is, samengevat, uit te zoeken hoe informatie uit gebaar en spraak moet worden samengebracht en geinterpreteerd, in hoeverre automatisch redeneren kan worden toegepast in een 'medium-complex' domein, en hoe cognitieve aspecten een rol spelen in mens-machine communicatie.
Ton Wempe, Jeannette van der Stelt en Louis C.W. Pols ({Jeannet.van.der.Stelt, Louis.Pols, ton.wempe}@hum.uva.nl), Leerstoelgroep Fonetische Wetenschappen/ACLC Universiteit van Amsterdam
Een interessant, veelal verwaarloosd, onderwerp van onderzoek is de ontwikkeling van de klinkerruimte van dove en horende baby_s in de richting van de klinkerruimte van volwassenen. Het ligt voor de hand dat deze ontwikkelingen voor dove en horende kinderen verschillen.
Zoals bekend is het een probleem om zonder voorkennis over de identiteit van een klinker, consistent formanten te meten in uitingen met een hoge grondtoon. Wempe (2001) heeft echter een toonhoogte-gerelateerde analysemethode ontwikkeld, waarmee de spectrale omhullenden betrouwbaar bepaald kunnen worden. Hierdoor kunnen opnamen over de verschillende leeftijden van de kinderen vergeleken worden.
De Wempe-methode is toegepast op uitingen van 5 dove en 5 horende kinderen. Het audiomateriaal is in de thuissituatie opgenomen: maandelijks in de leeftijdsperiode van 5 tot 17 maanden, terwijl er ook nog een opname is gemaakt toen de kinderen 24 maanden oud waren (zie Dikkenberg-Pot & Koopmans-van Beinum, 1997). Het gehoorverlies van de dove baby_s varieert van 93 tot meer dan 120 dB in het beste oor. In iedere opname is random een 10-minuten-sample gekozen, waarin 50 uitingen zijn geselecteerd. Het betreft dus een database van (5+5)x(13+1)x50 = 7000 uitingen.
In de uitingen worden segmenten van 25 ms geselecteerd die moeten voldoen aan twee criteria. Als eerste geldt dat het segment stemhebbend moet zijn en dat de F0 lager is dan 425 Hz. Ten tweede moet voldaan worden aan de eis dat de intensiteit tenminste 1 dB onder het maximum ligt (zodoende clipping in de opname vermijdend). Ongeveer 15% van de uitingen uit de database voldoet niet aan deze criteria (de toonhoogte is hoger of de uiting is niet periodiek of grotendeels overstuurd).
Voor de kinderen worden spectrale representaties per opname berekend en bekeken op de veranderingen daarin. Deze spectrale representaties zijn op formanten gelijkende representaties, maar zijn bepaald door een principale componentenanalyses op spectrale omhullenden. Zowel groepsvergelijkingen als individuele veranderingen zullen worden gepresenteerd.
Ilse Meezen (Ilse.Meezen@student.uva.nl), Universiteit van Amsterdam
Meten van de auditieve emotieperceptie bij vierjarigen. Waarom en hoe? Kleuters van vier hebben over het algemeen geen moeite met praten en contact maken met hun leeftijdsgenoten op de basisschool. Er zijn echter ook kinderen die het moeilijk vinden om contact te maken, om samen te spelen en vriendjes te maken.Juist in talige sociale situaties ontstaan er conflicten of trekken kinderen zich terug.Dit zijn bekende verschijnselen in het speciaal onderwijs voor kinderen met spraak- en taalproblemen.Hierdoor kunnen de taalontwikkeling en de sociaal emotionele ontwikkeling gevaar lopen.De vraag is of het horen en begrijpen van emotie in gesproken taal moeilijkheden oplevert bij kinderen met spraak-en taalproblemen? Er is een poging gedaan om dit objectief te meten.
Een nieuwe toets is ontwikkeld omdat het huidige diagnostische instrumentarium geen onderzoeksmogelijkheden heeft voor de auditieve emotieperceptie. Met behulp van een laptop is er op scholen voor regulier basis onderwijs en speciaal onderwijs (cluster 2) een meting gedaan bij 184 kinderen . ( 100 regulier onderwijs en 84 speciaal onderwijs). De resultaten laten zien dat kinderen van vier jaar met spraak- en taalproblemen significant lager scoren op de toets dan kinderen die geen spraak- en taalproblemen hebben op die leeftijd. Natuurlijk zijn er na een eerste meting nog vragen over de validiteit en betrouwbaarheid maar het paralinguistisch aspect -auditieve emotieperceptie bij vierjarigen- verdient zeker de aandacht van het onderzoeksveld en de praktijk.
Wilbert Heeringa en Charlotte Gooskens ({heeringa, c.s.gooskens}@let.rug.nl), Alfa-Informatica, Scandinavische talen en culturen, Rijksuniversiteit Groningen
Gooskens & Heeringa (2002) beschreven een experiment waarbij de taalkundige afstanden tussen 15 Noorse dialecten werden bepaald volgens de perceptie van de sprekers. Deze resultaten werden vergeleken met Levenshtein afstanden, afstanden die bepaald werden op basis van de trancripties van de woorden uit de tekst die ook voor het perceptie-experiment gebruikt werden. De Levenshtein- afstand bepaald hoe zo eenvoudig mogelijk de ene uitspraakvariant veranderd kan worden in de andere door elementen toe te voegen, te verwijderen of te vervangen. De afstand is gelijk aan de som van de gewichten van de gebruikte operaties. De methode is afhankelijk van de betrouwbaarheid van de transcribent.
Het doel van dit onderzoek was het vinden van een akoestische afstandsmaat tussen dialecten die de perceptieve afstanden benadert. We maakten gebruik van verschillende representaties van het akoestisch signaal: Barkfilter- spectrogrammen, cochleagrammen en formant-sporen. De elementen op basis waarvan de Levenshtein-afstand nu werd toegepast zijn de spectra of de formant-reeksen (in plaats van de transcriptie-segmenten). Het gebruik van de formant-sporen bleek afstanden te geven die de perceptieve afstanden het meest benaderen. De resultaten van de transcriptie-gebaseerde aanpak correleren echter nog steeds sterker met de perceptieve afstanden. In het akoestisch signaal bevindt zich in bepaalde mate ook spreker-afhankelijke informatie, terwijl een transcribent abstraheert van stemkwaliteit. Het gebruik van meer samples per woord (in plaats van maar een zoals in ons onderzoek) zou de accuratesse van de metingen verbeteren.
Renée van Bezooijen (R.v.Bezooijen@let.kun.nl), Algemene Taalwetenschap en Dialectologie, Universiteit van Nijmegen
Algemeen wordt aangenomen dat de oudste r in het Nederlands de tongpunt-r is. Op een bepaald moment is daar de huig-r bijgekomen. Nu komt de huig-r als dominante variant voor in een groot aantal gebieden van Nederland en Vlaanderen en als enclave temidden van tongpunt-r gebied in een aantal steden (bijvoorbeeld Gent, Den Haag en Zwolle). De huig-r is nu ook geaccepteerd binnen het Standaardnederlands. Er zijn verschillende visies op de herkomst van de huig-r: sommigen denken dat hij uit het Frans afkomstig is (waar hij in de eerste helft van de 17e eeuw ontstaan zou zijn) en anderen denken dat hij (daarnaast) een lokale oorsprong heeft. Deze twee benaderingen zal ik in mijn lezing presenteren. Daarnaast zal ik ingaan op de mogelijke verspreidingsmechanismes. Ik onderscheid daarbij: spontane genese, tweede taalverwerving, eerste taalverwerving, genetische bepaaldheid, sociale imitatie en interne taalverandering.
Emmanuel Keuleers1, Gert Durieux2 en Evelyn Martens2 (emmanuel.keuleers@ua.ac.be), 1) Centrum voor Psycholinguïstiek, Universiteit Antwerpen 2) Centrum voor Nederlandse Taal en Spraak, Universiteit Antwerpen
Het Nederlands kent twee reëel productieve meervoudssuffixen: -(e)n en -s. Regels die gebaseerd zijn op de fonologische kenmerken van een woord, slagen er in het algemeen vrij goed in het meervoudssuffix te voorspellen, maar voorspellen voor leenwoorden vaak het suffix -(e)n in plaats van -s. Dat de status van een woord als leenwoord meervoudsvorming beïnvloedt wordt o.a. beschreven in de Algemene Nederlandse Spraakkunst (1997), maar waarom sommige woorden als leenwoord worden ervaren, is echter niet duidelijk. In een experimenteel onderzoek gingen we na of de orthografie van pseudowoorden -die per definitie geen leenwoorden kunnen zijn- de status van leenwoord kan mediëren. Deelnemers kregen vragen die een pseudowoord bevatten simultaan in gesproken en geschreven vorm aangeboden. De gesproken vorm werd constant gehouden (is een /fik/ rijk?) , maar in de geschreven vorm werd de orthografie van het pseudowoord gevarieerd (fiek - feak). Dan werd gevraagd een gesproken antwoord te produceren op basis van een zin waarin het meervoud van het pseudowoord moest ingevuld worden (ja, alle ---- zijn rijk). We bespreken de eerste resultaten van dit onderzoek.
Rachel Kemps, Mirjam Ernestus, Robert Schreuder en Harald Baayen (Rachel.Kemps@mpi.nl), Max Planck Instituut voor Psycholinguïstiek en Katholieke Universiteit Nijmegen
Recent onderzoek toont aan dat systematische verschillen in klinkerduur en intonatie door luisteraars gebruikt worden voor het oplossen van de ambiguïteit tussen monomorfematische woorden met dezelfde onset (bijv. ham - hamster) (Davis, Marslen-Wilson & Gaskell, 2002; Salverda, Dahan & McQueen (2002). Deze studie laat zien dat luisteraars dergelijke subsegmentele en suprasegmentele cues ook gebruiken voor het optimaliseren van de morfologische verwerking. De details van de akoestische realisatie van de stam geeft de luisteraar informatie over de morfologische context waarin de stam voorkomt, en verminderen de competitie tussen de inflectionele varianten in het lexicon. Het is dankzij de relatief constante duur van de onset dat luisteraars - ondanks de hoge mate van temporele variabiliteit in het spraaksignaal - in staat zijn gebruik te maken van de durationale cues.
Esther Janse (Esther.Janse@let.uu.nl), Universiteit Utrecht
Spraak die door sprekers snel is uitgesproken verschilt zowel segmenteel als temporeel van spraak die op normaal tempo wordt geproduceerd. Bij een snel spreektempo is 'gereduceerde articulatie' vrijwel onvermijdelijk. Daarnaast passen sprekers een niet-lineaire manier van versnellen toe: sommige stukken worden meer verkort dan andere. In dit onderzoek werd het verwerkingsgemak van 3 snelle-spraakcondities vergeleken: (1) natuurlijk geproduceerde (perfect verstaanbare) snelle spraak; (2) kunstmatig versnelde spraak die het temporeel patroon heeft van natuurlijk snelle spraak; (3) kunstmatig lineair versnelde spraak (met dus het temporeel patroon van normaal-tempo spraak). De verwachting was dat conditie (3) het makkelijkst te verwerken zou zijn en (1) het minst omdat hoe meer een woordvorm lijkt op de 'canonieke vorm', des te makkelijker is het voor de luisteraar om deze te 'mappen' op het mentale lexicon. De resultaten bevestigden deze verwachting. De menselijke niet-lineaire manier van versnellen is kennelijk niet bedoeld om het de luisteraar makkelijker te maken, maar de spreker is beperkt. Verder is de luisteraar gebaat bij een zo redundant mogelijk spraaksignaal.
Hidetoshi Shiraishi (toshi_shiraishi@hotmail.com), afd.Taalwetenschap Faculteit der Letteren Rijksuniversiteit Groningen
The vowel devoicing of (Standard) Japanese is a well-studied phenomenon in which high vowels are pronounced devoiced when flanked by voiceless obstruents: sUkiyaki, kItakaze 'northwind' (devoiced vowels are capitalized). Less studied is the vowel devoicing of Ainu, a genetically isolated language and the geographic neighbor of the Japanese. The current research revealed that the vowel devoicing of Ainu exhibits characteristics that are unknown or rare to vowel devoicing of Japanese, in contrast with previous studies which claimed that the phonological environment of the phenomenon should not differ in both languages. Examining the sound recordings of the Saru Dialect of Ainu, I found that the speakers never devoiced vowels in the syllables tu, pi and pu (yaytupareno 'carefully', akohepututu 'to pout'), while these are devoiceable syllables in Japanese: pIkupIku 'jerkingly', resepUshon 'reception'. The Ainu data suggest that the vowel devoicing in this language cannot be simply due to ease of articulation (saving vocal cord vibration throughout the syllable in question), an explanation often preferred for the vowel devoicing of Japanese. This deviation suggests that vowel devoicing of Ainu might be governed by distinct mechanisms.
Vincent J. van Heuven en Roos Genet (V.J.J.P.van.Heuven@let.leidenuniv.nl), ULCL/Opleiding ATW UL
Er is nogal wat gesold met de transcriptie van de korte/ongespannen hoge geronde voorklinker zoals die voorkomt in Nederlandse woorden als put en gul. In klassieke fonetiekboeken wordt het symbool /œ/ gebruikt. Na een recente hervorming van het International Phonetic Alphabet (IPA) heeft Gussenhoven (1999) zijn keus bepaald op het symbool /Y/. Rietveld & van Heuven (2001: 74) menen dat deze keus niet optimaal is en gebruiken in plaats van /Y/ het symbool /ɶ/, hetzelfde symbool dat eerder al werd voorgesteld door van Reenen & Elias (1998).
Omdat alle symbolen in het IPA nauwkeurig fonetisch gedefinieerd zijn is de symboolkeus terug te brengen tot een experimenteel aanpakbare vraag. Wij maken daarbij gebruik van de gelukkige omstandigheid dat de 28 klinkersymbolen zoals die zijn opgenomen, en daarmee fonetisch zijn gedefinieerd, in de IPA vowel chart door de IPA-organisatie zijn voorzien van geautoriseerde realisaties. De IPA geeft daartoe een cassette/CD uit waarop twee gerenommeerde fonetici (John Wells, Jill House) alle klinkers hebben ingesproken.
Wij hebben de twee maal 28 IPA-klinkers in de computer opgenomen, uit hun midden een maximaal stabiel deel geëxcerpeerd, en dit – via PSOLA-manipulatie – voorzien van een vaste, dalende F0- en intensiteitscontour, waarbij iedere klinker een maal kort en een maal lang is gemaakt. De 112 klinkergeluiden zijn per spreker gerandomiseerd en aangeboden aan een groep Nederlandse luisteraars, die ieder klinkergeluid moesten identificeren als een van de twaalf Nederlandse volle monoftongen. De resultaten wijzen, onder andere, uit dat de IPA-klinker /ɵ/ veel sterker dan /Y/ en /œ/ geassocieerd wordt met de klinker in put.
Gussenhoven, C. (1999) Dutch. In: Handboook of the International Phonetic Association, Cambridge: Cambridge University Press, 74-77.
Reenen, P. van & Elias, M. (1998) Taalverschillen: een werkboek over variatie en verandering in taal. Bussum: Coutinho.
Rietveld, A.C.M. & Heuven, V.J. van (2001) Algemene fonetiek. Bussum: Coutinho.
Christophe Van Bael (c.v.bael@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen
Zowel in de spraaktechnologie als in meer fundamenteel fonetisch onderzoek is er op dit moment behoefte aan grote hoeveelheden fonetische transcripties van spraak. Zulke transcripties worden nu vrijwel uitsluitend met de hand gemaakt. Dit is tijdrovend, duur en vaak subjectief en onbetrouwbaar. Daarom is er behoefte aan automatische procedures voor het genereren van zo goed mogelijke fonetische transcripties. Momenteel is het echter nog niet duidelijk wanneer een fonetische transcriptie goed bruikbaar is. Dit hangt namelijk af van de toepassing waarvoor de transcriptie gebruikt moet worden.
Een nieuw project wordt voorgesteld waarin adequate fonetische transcripties automatisch worden gegenereerd en gevalideerd. Momenteel wordt getracht om automatische transcripties zoveel mogelijk te laten lijken op handmatige fonetische transcripties. Later zal in een aantal concrete toepassingen worden onderzocht of de automatische transcripties goed genoeg zijn voor het doel dat ze moeten dienen.
Diana Binnenpoorte en Simo Goddijn (D.Binnenpoorte@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen
Voor de ontwikkeling van betere automatische transcripties zijn handmatig gecorrigeerde fonetische transcripties van grote waarde. Automatisch gegenereerde transcripties zijn weliswaar maximaal consistent, maar niet altijd maximaal accuraat, om verschillende redenen. Een manier om de transcripties accurater te maken, is ze handmatig te laten corrigeren. Uit de literatuur is echter bekend dat door mensen gemaakte fonetische transcripties een fors element van subjectiviteit en inconsistentie in zich hebben. In welke mate dit geldt voor de handmatig gecorrigeerde fonetische transcripties zoals die gemaakt worden in het CGN-project, wordt onderzocht aan de hand van twee experimenten.
Als eerste wordt de accuratesse van de handmatige transcripties bepaald door de transcripties van zestien fragmenten op te lijnen met een referentietranscriptie van diezelfde fragmenten. De referentietranscriptie benadert de werkelijkheid zo dicht mogelijk en is ontstaan door consensus tussen twee ervaren fonetici voor ieder symbool. De tweede vraag die beantwoord wordt, is in welke mate de verschillende transcribenten onderling overeenstemmen.
Door bestudering van de data hopen we een goed beeld te kunnen geven van de kwaliteit van de handmatig gecorrigeerde fonetische transcripties in het kerncorpus van het CGN.