De dag van de Fonetiek 2002

Over lopend onderzoek naar spraak en spraaktechnologie

Donderdag 19 december 2002 in de Sweelinckzaal, Drift 21 te Utrecht
Georganiseerd door de Nederlandse Vereniging voor Fonetische Wetenschappen
¡deelname gratis!

Het hele programma (PDF) of het programmaboekje (PDF) in printbare vorm

--> Routebeschrijving <--

9:00 Ontvangst met koffie

9:30 Welkom

9:35-10:55 Ochtendsessie I (voorzitter: Rob van Son)

9:35 Rhythme in het Engels en het Frans.

Luc van Buuren (burran@euronet.nl), Linguavox, Bloemendaal

9:55 Forensische sprekerherkenning: The True Story

Tina Cambier-Langeveld en Jos Vermeulen (t.cambier@nfi.minjus.nl), Nederlands Forensisch Instituut

10:15 Gebruikersevaluatie van een multimodaal dialoogsysteem voor treinreisinformatie

Janienke Sturm (janienke.sturm@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen

10:35 COMIC: een project over multimodale interactie, automatisch redeneren, en mens-machine dialogen

Louis ten Bosch (tenbosch@LandS.let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen

10:55 Koffiepauze

11:15-12:35 Ochtendsessie II (voorzitter: Johanneke Caspers)

11:15 Uitingen van dove en horende babies

Ton Wempe, Jeannette van der Stelt en Louis C.W. Pols ({Jeannet.van.der.Stelt, Louis.Pols, ton.wempe}@hum.uva.nl), Leerstoelgroep Fonetische Wetenschappen/ACLC Universiteit van Amsterdam

11:35 Meten van de auditieve emotieperceptie bij vierjarigen. Waarom en hoe?

Ilse Meezen (Ilse.Meezen@student.uva.nl), Universiteit van Amsterdam

11:55 De afstanden tussen Noorse dialecten perceptief en akoestisch bepaald

Wilbert Heeringa en Charlotte Gooskens ({heeringa, c.s.gooskens}@let.rug.nl), Alfa-Informatica, Scandinavische talen en culturen, Rijksuniversiteit Groningen

12:15 De huig-r in het Nederlands: routes en mechanismes

Renée van Bezooijen (R.v.Bezooijen@let.kun.nl), Algemene Taalwetenschap en Dialectologie, Universiteit van Nijmegen

12:35 Lunch

14:00-15:20 Middagsessie I (voorzitter: Mirjam Ernestus)

14:00 Fonologie en metalinguïstische factoren bij meervoudsvorming in het Nederlands

Emmanuel Keuleers1, Gert Durieux2 en Evelyn Martens2 (emmanuel.keuleers@ua.ac.be), 1) Centrum voor Psycholinguïstiek, Universiteit Antwerpen 2) Centrum voor Nederlandse Taal en Spraak, Universiteit Antwerpen

14:20 Subfonemische cues voor morfologische complexiteit in gesproken woordherkenning

Rachel Kemps, Mirjam Ernestus, Robert Schreuder en Harald Baayen (Rachel.Kemps@mpi.nl), Max Planck Instituut voor Psycholinguïstiek en Katholieke Universiteit Nijmegen

14:40 Verwerking van snelle spraak

Esther Janse (Esther.Janse@let.uu.nl), Universiteit Utrecht

15:00 Vowel devoicing of Ainu: How it differs and not differs from vowel devoicing of Japanese

Hidetoshi Shiraishi (toshi_shiraishi@hotmail.com), afd.Taalwetenschap Faculteit der Letteren Rijksuniversiteit Groningen

15:20 Thee

15:45-16:45 Middagsessie II (voorzitter: Bert Schouten)

15:45 Wat is het beste IPA-symbool voor de u van put?

Vincent J. van Heuven en Roos Genet (V.J.J.P.van.Heuven@let.leidenuniv.nl), ULCL/Opleiding ATW UL

16:05 Automatische generatie en validatie van fonetische transcripties

Christophe Van Bael (c.v.bael@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen

16:25 Evaluatie van handmatig gecorrigeerde brede fonetische transcripties in het Corpus Gesproken Nederlands

Diana Binnenpoorte en Simo Goddijn (D.Binnenpoorte@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen

16:45 Afsluiting


Voor meer informatie:

Rob van Son
Secretaris van de Nederlandse Vereniging voor Fonetische Wetenschappen
p/a Instituut voor Fonetische Wetenschappen
Universiteit van Amsterdam
Herengracht 338
1016 CG Amsterdam
Tel.: 020-5252195/020-5252183
Fax: 020-5252197
Email: Rob.van.Son@hum.uva.nl

Voor koffie en thee wordt gezorgd.

Voordrachten

9:35 Rhythme in het Engels en het Frans.

Luc van Buuren (burran@euronet.nl), Linguavox, Bloemendaal

In een fonologische transcriptie (incl. accent-markering) van het begin van The Story of Arthur the Rat door mijzelf ingesproken zijn de syllabeduren aangegeven volgens een viertal timing-regels. Vervolgens zijn de syllabeduren gemeten in centiseconden om te zien in hoeverre deze regels wel of niet kloppen. Hiervan wordt verslag gedaan.

In een dito transcriptie van Le Rat Arthur ingesproken door een Française heb ik de syllabeduren eerst op het oor vastgesteld, en vervolgens eveneens gemeten in centiseconden om te zien hoe (on)betrouwbaar mijn auditorische analyse was.  Ook hiervan verslag. Verder nog een eerste poging tot het opstellen van accent- en timing-regels voor het Frans, en wat meer algemene opmerkingen over rhythme in beide talen. Zo mogelijk hoop ik voor 19 December ook nog iets te kunnen doen aan Arthur de Rat en Arthur die Ratte.

9:55 Forensische sprekerherkenning: The True Story

Tina Cambier-Langeveld en Jos Vermeulen (t.cambier@nfi.minjus.nl), Nederlands Forensisch Instituut

Het Nederlands Forensisch Instituut (NFI) te Rijswijk verricht op jaarbasis ongeveer 80 onderzoeken op het gebied van spraak. Het merendeel van deze onderzoeken betreft vergelijkend spraakonderzoek, waarbij het gaat om de vraag of spraakfragmenten van een onbekende spreker (het betwiste materiaal) al dan niet geproduceerd zijn door een bekende spreker (de verdachte). Het betwiste materiaal is meestal afkomstig van door de politie getapte telefoongesprekken.

In de schrijvende pers, in films en tv-series en ?wellicht dientengevolge? ook in fonetische kringen worden nogal eens voorstellingen van forensische sprekerherkenning gegeven die niet stroken met het onderzoek zoals dat aan het NFI uitgevoerd wordt. In deze presentatie zal daarom gepoogd worden een accuraat beeld te geven van het werk van de forensische spraakonderzoekers werkzaam bij het NFI en van de manier waarop de bevindingen gerapporteerd worden aan de opdrachtgever.

10:15 Gebruikersevaluatie van een multimodaal dialoogsysteem voor treinreisinformatie

Janienke Sturm (janienke.sturm@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen

Binnen het IOP-MMI project MATIS (Multimodal Access to Transactions and Information Services) is een multimodaal dialoogsysteem gebouwd voor treinreisinformatie. Het systeem accepteert zowel gesproken invoer als invoer door middel van een pen op een scherm en geeft tevens uitvoer in gesproken vorm en via het scherm. De bruikbaarheid van het interface is geëvalueerd door middel van twee gebruikerstesten. In de eerste gebruikerstest is het multimodale interface vergeleken met twee unimodale interfaces die dezelfde informatie bieden (te weten de Reisplanner op internet en een puur gesproken dialoogsysteem). De resultaten van deze gebruikerstest laten zien dat het multimodale systeem sneller en succesvoller is dan het gesproken dialoogsysteem en dat de gebruikerstevredenheid stijgt. Vanwege de mogelijkheid tot toetsenbordinvoer was de internetversie van het systeem echter het snelste en daardoor het meest gewaardeerd. In de tweede gebruikerstest is het huidige multimodale interface, waarin de dialoog gestuurd wordt door de gesproken prompts van het systeem, vergeleken met een alternatieve implementatie waarin er door het systeem geen vragen gesteld wordt. Deze evaluatie laat zien dat een systeem waarin geen gesproken dialoog plaatsvindt sneller is, en bovendien de voorkeur heeft van gebruikers omdat het transparanter is en daardoor makkelijker te bedienen.

10:35 COMIC: een project over multimodale interactie, automatisch redeneren, en mens-machine dialogen

Louis ten Bosch (tenbosch@LandS.let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen

Het COMIC-project (www.mpi.nl/comic) bestudeert het gebruik van multimodale in/uitvoer en van automatisch redeneren in mens-machine communicatie. Het project heeft een theoretisch en praktisch doel die overigens tamelijk verweven zijn. Het praktisch doel is het creeren van een werkend prototype voor een design-systeem dat het ontwerpen van een badkamer ondersteunt. Het design van een badkamer is gekarakteriseerd door een zeer groot aantal opties waarvan de meeste alleen aan specialisten bekend zijn. De gebruiker  -- die meestal geen expert is -- moet door de applicatie op een informatieve manier door een oerwoud van mogelijkheden worden geleid. Dat oerwoud van mogelijkheden wordt afgegrensd door logische, fysische en esthetische regels die binnen het applicatiedomein gelden. De input van de gebruiker is multimodaal: zowel spraak als 2-dimensionale gebaren (tekeningen, handschrift, aanwijzen enz.) worden door het systeem geinterpreteerd. De automatische spraakherkenner en automatische gebarenherkenner worden gekoppeld en gevolgd door een redeneersysteem (een 'intelligente' dialoogmanager) dat fouten in de spraak/gebaarherkenning probeert op te lossen door gebruik te maken van de 'hogere-orde' kennis in en over het domein. Het onderzoeksdoel is, samengevat, uit te zoeken hoe informatie uit gebaar en spraak moet worden samengebracht en geinterpreteerd, in hoeverre automatisch redeneren kan worden toegepast in een 'medium-complex' domein, en hoe cognitieve aspecten een rol spelen in mens-machine communicatie.

11:15 Uitingen van dove en horende babies

Ton Wempe, Jeannette van der Stelt en Louis C.W. Pols ({Jeannet.van.der.Stelt, Louis.Pols, ton.wempe}@hum.uva.nl), Leerstoelgroep Fonetische Wetenschappen/ACLC Universiteit van Amsterdam

Een interessant, veelal verwaarloosd, onderwerp van onderzoek is de ontwikkeling van de klinkerruimte van dove en horende baby_s in de richting van de klinkerruimte van volwassenen. Het ligt voor de hand dat deze ontwikkelingen voor dove en horende kinderen verschillen.

Zoals bekend is het een probleem om zonder voorkennis over de identiteit van een klinker, consistent formanten te meten in uitingen met een hoge grondtoon. Wempe (2001) heeft echter een toonhoogte-gerelateerde analysemethode ontwikkeld, waarmee de spectrale omhullenden betrouwbaar bepaald kunnen worden. Hierdoor kunnen opnamen over de verschillende leeftijden van de kinderen vergeleken worden.

De Wempe-methode is toegepast op uitingen van 5 dove en 5 horende kinderen. Het audiomateriaal is in de thuissituatie opgenomen: maandelijks in de leeftijdsperiode van 5 tot 17 maanden, terwijl er ook nog een opname is gemaakt toen de kinderen 24 maanden oud waren (zie Dikkenberg-Pot & Koopmans-van Beinum, 1997). Het gehoorverlies van de dove baby_s varieert van 93 tot meer dan 120 dB in het beste oor. In iedere opname is random een 10-minuten-sample gekozen, waarin 50 uitingen zijn geselecteerd. Het betreft dus een database van (5+5)x(13+1)x50 = 7000 uitingen.

In de uitingen worden segmenten van 25 ms geselecteerd die moeten voldoen aan twee criteria. Als eerste geldt dat het segment stemhebbend moet zijn en dat de F0 lager is dan 425 Hz. Ten tweede moet voldaan worden aan de eis dat de intensiteit tenminste 1 dB onder het maximum ligt (zodoende clipping in de opname vermijdend). Ongeveer 15% van de uitingen uit de database voldoet niet aan deze criteria (de toonhoogte is hoger of de uiting is niet periodiek of grotendeels overstuurd).

Voor de kinderen worden spectrale representaties per opname berekend en bekeken op de veranderingen daarin. Deze spectrale representaties zijn op formanten gelijkende representaties, maar zijn bepaald door een principale componentenanalyses op spectrale omhullenden. Zowel groepsvergelijkingen als individuele veranderingen zullen worden gepresenteerd.

11:35 Meten van de auditieve emotieperceptie bij vierjarigen. Waarom en hoe?

Ilse Meezen (Ilse.Meezen@student.uva.nl), Universiteit van Amsterdam

Meten van de auditieve emotieperceptie bij vierjarigen. Waarom en hoe? Kleuters van vier hebben over het algemeen geen moeite met praten en contact maken met hun leeftijdsgenoten op de basisschool. Er zijn echter ook kinderen die het moeilijk vinden om contact te maken, om samen te spelen en vriendjes te maken.Juist in talige sociale situaties ontstaan er conflicten of trekken kinderen zich terug.Dit zijn bekende verschijnselen in het speciaal onderwijs voor kinderen met spraak- en taalproblemen.Hierdoor kunnen de taalontwikkeling en de sociaal emotionele ontwikkeling gevaar lopen.De vraag is of het horen en begrijpen van emotie in gesproken taal moeilijkheden oplevert bij kinderen met spraak-en taalproblemen? Er is een poging gedaan om dit objectief te meten.

Een nieuwe toets is ontwikkeld omdat het huidige diagnostische instrumentarium geen onderzoeksmogelijkheden heeft voor de auditieve emotieperceptie. Met behulp van een laptop is er op scholen voor regulier basis onderwijs en speciaal onderwijs (cluster 2) een meting gedaan bij 184 kinderen . ( 100 regulier onderwijs en 84 speciaal onderwijs). De resultaten laten zien dat kinderen van vier jaar met spraak- en taalproblemen significant lager scoren op de toets dan kinderen die geen spraak- en taalproblemen hebben op die leeftijd. Natuurlijk zijn er na een eerste meting nog vragen over de validiteit en betrouwbaarheid maar het paralinguistisch aspect -auditieve emotieperceptie bij vierjarigen- verdient zeker de aandacht van het onderzoeksveld en de praktijk.

11:55 De afstanden tussen Noorse dialecten perceptief en akoestisch bepaald

Wilbert Heeringa en Charlotte Gooskens ({heeringa, c.s.gooskens}@let.rug.nl), Alfa-Informatica, Scandinavische talen en culturen, Rijksuniversiteit Groningen

Gooskens & Heeringa (2002) beschreven een experiment waarbij de taalkundige afstanden tussen 15 Noorse dialecten werden bepaald volgens de perceptie van de sprekers. Deze resultaten werden vergeleken met Levenshtein afstanden, afstanden die bepaald werden op basis van de trancripties van de woorden uit de tekst die ook voor het perceptie-experiment gebruikt werden. De Levenshtein- afstand bepaald hoe zo eenvoudig mogelijk de ene uitspraakvariant veranderd kan worden in de andere door elementen toe te voegen, te verwijderen of te  vervangen. De afstand is gelijk aan de som van de gewichten van de gebruikte operaties. De methode is afhankelijk van de betrouwbaarheid van de  transcribent.

Het doel van dit onderzoek was het vinden van een akoestische afstandsmaat tussen dialecten die de perceptieve afstanden benadert. We maakten gebruik  van verschillende representaties van het akoestisch signaal: Barkfilter- spectrogrammen, cochleagrammen en formant-sporen. De elementen op basis waarvan de Levenshtein-afstand nu werd toegepast zijn de spectra of de formant-reeksen (in plaats van de transcriptie-segmenten). Het gebruik van de formant-sporen bleek afstanden te geven die de perceptieve afstanden  het meest benaderen. De resultaten van de transcriptie-gebaseerde aanpak correleren echter nog steeds sterker met de perceptieve afstanden. In het  akoestisch signaal bevindt zich in bepaalde mate ook spreker-afhankelijke informatie, terwijl een transcribent abstraheert van stemkwaliteit. Het  gebruik van meer samples per woord (in plaats van maar een zoals in ons onderzoek) zou de accuratesse van de metingen verbeteren.

12:15 De huig-r in het Nederlands: routes en mechanismes

Renée van Bezooijen (R.v.Bezooijen@let.kun.nl), Algemene Taalwetenschap en Dialectologie, Universiteit van Nijmegen

Algemeen wordt aangenomen dat de oudste r in het Nederlands de tongpunt-r is. Op een bepaald moment is daar de huig-r bijgekomen. Nu komt de huig-r als dominante variant voor in een groot aantal gebieden van Nederland en Vlaanderen en als enclave temidden van tongpunt-r gebied in een aantal steden (bijvoorbeeld Gent, Den Haag en Zwolle). De huig-r is nu ook geaccepteerd binnen het Standaardnederlands. Er zijn verschillende visies op de herkomst van de huig-r: sommigen denken dat hij uit het Frans afkomstig is (waar hij in de eerste helft van de 17e eeuw ontstaan zou zijn) en anderen denken dat hij (daarnaast) een lokale oorsprong heeft. Deze twee benaderingen zal ik in mijn lezing presenteren. Daarnaast zal ik ingaan op de mogelijke verspreidingsmechanismes. Ik onderscheid daarbij: spontane genese, tweede taalverwerving, eerste taalverwerving, genetische bepaaldheid, sociale imitatie en interne taalverandering.

14:00 Fonologie en metalinguïstische factoren bij meervoudsvorming in het Nederlands

Emmanuel Keuleers1, Gert Durieux2 en Evelyn Martens2 (emmanuel.keuleers@ua.ac.be), 1) Centrum voor Psycholinguïstiek, Universiteit Antwerpen 2) Centrum voor Nederlandse Taal en Spraak, Universiteit Antwerpen

Het Nederlands kent twee reëel productieve meervoudssuffixen: -(e)n en -s. Regels die gebaseerd zijn op de fonologische kenmerken van een woord, slagen er in het algemeen  vrij goed in het meervoudssuffix te voorspellen, maar voorspellen voor leenwoorden vaak het suffix -(e)n in plaats van -s. Dat de status van een woord als leenwoord meervoudsvorming beïnvloedt wordt o.a. beschreven in de Algemene Nederlandse Spraakkunst (1997), maar waarom sommige woorden als leenwoord worden ervaren, is echter niet duidelijk. In een experimenteel onderzoek gingen we na of de orthografie van pseudowoorden -die per definitie geen leenwoorden kunnen zijn- de status van leenwoord kan mediëren. Deelnemers kregen vragen die een pseudowoord bevatten simultaan in gesproken en geschreven vorm aangeboden. De gesproken vorm werd constant gehouden (is een /fik/ rijk?) , maar in de geschreven vorm werd de orthografie van het pseudowoord gevarieerd (fiek - feak). Dan werd gevraagd een gesproken antwoord te produceren op basis van een zin waarin het meervoud van het pseudowoord moest ingevuld worden (ja, alle ---- zijn rijk). We bespreken de eerste resultaten van dit onderzoek.

14:20 Subfonemische cues voor morfologische complexiteit in gesproken woordherkenning

Rachel Kemps, Mirjam Ernestus, Robert Schreuder en Harald Baayen (Rachel.Kemps@mpi.nl), Max Planck Instituut voor Psycholinguïstiek en Katholieke Universiteit Nijmegen

Recent onderzoek toont aan dat systematische verschillen in klinkerduur en intonatie door luisteraars gebruikt worden voor het oplossen van de ambiguïteit tussen monomorfematische woorden met dezelfde onset (bijv. ham - hamster) (Davis, Marslen-Wilson & Gaskell, 2002; Salverda, Dahan & McQueen (2002). Deze studie laat zien dat luisteraars dergelijke subsegmentele en suprasegmentele cues ook gebruiken voor het optimaliseren van de morfologische verwerking. De details van de akoestische realisatie van de stam geeft de luisteraar informatie over de morfologische context waarin de stam voorkomt, en verminderen de competitie tussen de inflectionele varianten in het lexicon. Het is dankzij de relatief constante duur van de onset dat luisteraars - ondanks de hoge mate van temporele variabiliteit in het spraaksignaal - in staat zijn gebruik te maken van de durationale cues.

Davis, M.H., Marslen-Wilson, W.D. & Gaskell, M.G. (2002). Leading up the lexical garden-path: Segmentation and ambiguity in spoken word recognition. Journal of Experimental Psychology: Human Perception and Performance, 28, 218-244.
Salverda, A.P., Dahan, D., & McQueen, J.M. (2002). "ham" in "hamster": the role of segmental lengthening in the resolution of lexical embedding in speech comprehension. Submitted.

14:40 Verwerking van snelle spraak

Esther Janse (Esther.Janse@let.uu.nl), Universiteit Utrecht

Spraak die door sprekers snel is uitgesproken verschilt zowel segmenteel als temporeel van spraak die op normaal tempo wordt geproduceerd. Bij een snel spreektempo is 'gereduceerde articulatie' vrijwel onvermijdelijk. Daarnaast passen sprekers een niet-lineaire manier van versnellen toe: sommige stukken worden meer verkort dan andere. In dit onderzoek werd het verwerkingsgemak van 3 snelle-spraakcondities vergeleken: (1) natuurlijk geproduceerde (perfect verstaanbare) snelle spraak; (2) kunstmatig versnelde spraak die het temporeel patroon heeft van natuurlijk snelle spraak; (3) kunstmatig lineair versnelde spraak (met dus het temporeel patroon van normaal-tempo spraak). De verwachting was dat conditie (3) het makkelijkst te verwerken zou zijn en (1) het minst omdat hoe meer een woordvorm lijkt op de 'canonieke vorm', des te makkelijker is het voor de luisteraar om deze te 'mappen' op het mentale lexicon. De resultaten bevestigden deze verwachting. De menselijke niet-lineaire manier van versnellen is kennelijk niet bedoeld om het de luisteraar makkelijker te maken, maar de spreker is beperkt. Verder is de luisteraar gebaat bij een zo redundant mogelijk spraaksignaal.

15:00 Vowel devoicing of Ainu: How it differs and not differs from vowel devoicing of Japanese

Hidetoshi Shiraishi (toshi_shiraishi@hotmail.com), afd.Taalwetenschap Faculteit der Letteren Rijksuniversiteit Groningen

The vowel devoicing of (Standard) Japanese is a well-studied phenomenon in which high vowels are pronounced devoiced when flanked by voiceless obstruents: sUkiyaki, kItakaze 'northwind' (devoiced vowels are capitalized).  Less studied is the vowel devoicing of Ainu, a genetically isolated language and the geographic neighbor of the Japanese.  The current research revealed that the vowel devoicing of Ainu exhibits characteristics that are unknown or rare to vowel devoicing of Japanese, in contrast with previous studies which claimed that the phonological environment of the phenomenon should not differ in both languages.  Examining the sound recordings of the Saru Dialect of Ainu, I found that the speakers never devoiced vowels in the syllables tu, pi and pu (yaytupareno 'carefully', akohepututu 'to pout'), while these are devoiceable syllables in Japanese: pIkupIku 'jerkingly', resepUshon 'reception'.  The Ainu data suggest that the vowel devoicing in this language cannot be simply due to ease of articulation (saving vocal cord vibration throughout the syllable in question), an explanation often preferred for the vowel devoicing of Japanese.  This deviation suggests that vowel devoicing of Ainu might be governed by distinct mechanisms.

15:45 Wat is het beste IPA-symbool voor de u van put?

Vincent J. van Heuven en Roos Genet (V.J.J.P.van.Heuven@let.leidenuniv.nl), ULCL/Opleiding ATW UL

Er is nogal wat gesold met de transcriptie van de korte/ongespannen hoge geronde voor­klinker zoals die voorkomt in Nederlandse woorden als put en gul. In klassieke fonetiek­boeken wordt het symbool /œ/ gebruikt. Na een recente hervorming van het International Phonetic Alphabet (IPA) heeft Gussenhoven (1999) zijn keus bepaald op het symbool /Y/. Rietveld & van Heuven (2001: 74) menen dat deze keus niet optimaal is en gebruiken in plaats van /Y/ het symbool /ɶ/, hetzelfde symbool dat eerder al werd voorgesteld door van Reenen & Elias (1998).

Omdat alle symbolen in het IPA nauwkeurig fonetisch gedefinieerd zijn is de symboolkeus terug te brengen tot een experimenteel aanpakbare vraag. Wij maken daarbij gebruik van de gelukkige omstandigheid dat de 28 klinkersymbolen zoals die zijn opgenomen, en daarmee fonetisch zijn gedefinieerd, in de IPA vowel chart door de IPA-organisatie zijn voorzien van geautoriseerde realisaties. De IPA geeft daartoe een cassette/CD uit waarop twee gere­nom­meerde fonetici (John Wells, Jill House) alle klinkers hebben ingesproken.

Wij hebben de twee maal 28 IPA-klinkers in de computer opgenomen, uit hun midden een maximaal stabiel deel geëxcerpeerd, en dit – via PSOLA-manipulatie – voorzien van een vaste, dalende F0- en intensiteitscontour, waarbij iedere klinker een maal kort en een maal lang is gemaakt. De 112 klinkergeluiden zijn per spreker gerandomiseerd en aangeboden aan een groep Nederlandse luisteraars, die ieder klinkergeluid moesten identificeren als een van de twaalf Nederlandse volle monoftongen. De resultaten wijzen, onder andere, uit dat de IPA-klinker /ɵ/ veel sterker dan /Y/ en /œ/ geassocieerd wordt met de klinker in put.

Gussenhoven, C. (1999) Dutch. In: Handboook of the Inter­na­tio­nal Phonetic Association, Cambridge: Cambridge University Press, 74-77.

Reenen, P. van & Elias, M. (1998) Taalverschillen: een werkboek over variatie en verandering in taal. Bussum: Coutinho.

Rietveld, A.C.M. & Heuven, V.J. van (2001) Algemene fonetiek. Bussum: Coutinho.

16:05 Automatische generatie en validatie van fonetische transcripties

Christophe Van Bael (c.v.bael@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen

Zowel in de spraaktechnologie als in meer fundamenteel fonetisch onderzoek is er op dit moment behoefte aan grote hoeveelheden fonetische transcripties van spraak. Zulke transcripties worden nu vrijwel uitsluitend met de hand gemaakt. Dit is  tijdrovend, duur en vaak subjectief en onbetrouwbaar. Daarom is er behoefte aan automatische procedures voor het genereren van zo goed mogelijke fonetische transcripties. Momenteel is het echter nog niet duidelijk wanneer een fonetische transcriptie goed bruikbaar is. Dit hangt namelijk af van de toepassing waarvoor de transcriptie gebruikt moet worden.

Een nieuw project wordt voorgesteld waarin adequate fonetische transcripties automatisch worden gegenereerd en gevalideerd. Momenteel wordt getracht om automatische transcripties zoveel mogelijk te laten lijken op handmatige fonetische transcripties. Later zal in een aantal concrete toepassingen worden onderzocht of de automatische transcripties goed genoeg zijn voor het doel dat ze moeten dienen.

16:25 Evaluatie van handmatig gecorrigeerde brede fonetische transcripties in het Corpus Gesproken Nederlands

Diana Binnenpoorte en Simo Goddijn (D.Binnenpoorte@let.kun.nl), A2RT, Dept. of Language & Speech, Universiteit van Nijmegen

Voor de ontwikkeling van betere automatische transcripties zijn handmatig gecorrigeerde fonetische transcripties van grote waarde. Automatisch gegenereerde transcripties zijn weliswaar maximaal consistent, maar niet altijd maximaal accuraat, om verschillende redenen. Een manier om de transcripties accurater te maken, is ze handmatig te laten corrigeren. Uit de literatuur is echter bekend dat door mensen gemaakte fonetische transcripties een fors element van subjectiviteit en inconsistentie in zich hebben. In welke mate dit geldt voor de handmatig gecorrigeerde fonetische transcripties zoals die gemaakt worden in het CGN-project,  wordt onderzocht aan de hand van twee experimenten.

Als eerste wordt de accuratesse van de handmatige transcripties bepaald door de transcripties van zestien fragmenten op te lijnen met een referentietranscriptie van diezelfde fragmenten. De referentietranscriptie benadert de werkelijkheid zo dicht mogelijk en is ontstaan door consensus tussen twee ervaren fonetici voor ieder symbool. De tweede vraag die beantwoord wordt, is in welke mate de verschillende transcribenten onderling overeenstemmen.

Door bestudering van de data hopen we een goed beeld te kunnen geven van de kwaliteit van de handmatig gecorrigeerde fonetische transcripties in het kerncorpus van het CGN.