Bert's brein

geplaatst: 3-5-2014; update 23-11-2014
 
reageer

Nadenken over taal en taalkunde gebeurt altijd in een bepaald kader, en dat kader bepaalt de termen waarin gedacht wordt. In dit stuk een aantal voorstellen voor een begrippenapparaat waarmee zinvol over taal gedacht kan worden: het begin van een onderzoeksprogramma.

grondslagen grammatica

  1. inleiding
  2. Empirische wetenschap doet een poging om waarneembare zaken te begrijpen door ze te modelleren, vaak ook met het doel om op basis van dat model correcte voorspellingen te doen die op een of andere manier kunnen worden toegepast. Eén van de grote problemen is, dat de observeerbare werkelijkheid niet uit zichzelf de termen aanbiedt waarin zo'n model gevat zou moeten zijn. Wat een goede keuze is zal vaak ook worden ingegeven door de toepassing die men voor ogen heeft.
    Taal is een goed waar te nemen fenomeen in de werkelijkheid. Het is niet direct terug te voeren op bijvoorbeeld fysica, chemie of biologie - in die zin is het een "emergent property" van de menselijke soort (en misschien ook van andere diersoorten, dat hangt o.a. af van de definitie van taal die men hanteert).
    Een goed waar te nemen onderdeel van taal is, dat de woorden van een taaluiting in een bepaalde volgorde staan (de syntaxis), en dat per taal die volgorde kan verschillen. Vergelijk:
    (nederlands) ik heb een groene fiets gekocht
    (frans) j'ai acheté une bicyclette verde
    (engels) I have bought a green bike

    De franse en de engelse zinnen bevatten één op één dezelfde elementen als de nederlandse zin, maar letterlijk staat er:
    (frans) ik heb gekocht een fiets groene.
    (engels) ik heb gekocht een groene fiets.

    In dit stukje wil ik elementen aandragen om de syntaxis van het Nederlands te modelleren. De achterliggende gedachte is, dat -als het model in de juiste termen wordt gesteld- dit de mogelijkheid kan bieden om ook andere talen op een vergelijkbare manier te modelleren. De toepassingen liggen in het gebied van geautomatiseerd vertalen en/of het communiceren (whatever that may be) met machines.

  3. waarom de twee bekendste benaderingen niet voldoen
  4. De benadering van syntaxis zoals die op school wordt onderwezen -de zgn schoolgrammatica- beschikt over een uitgebreide terminologie. Er zijn echter geen onderliggende principes geformuleerd, waardoor deze terminologie in principe oneindig uitbreidbaar is. Dit is model-technisch onwenselijk. Sommige termen zijn gebaseerd op de positie van een woord (het voorzetsel), andere lijken semantisch gemotiveerd (het aanwijzend voornaamwoord), en sommige groepen woorden lijken samengenomen te zijn op basis van flexie (voornaamwoorden). De vooronderstelling lijkt te zijn dat ieder woord tot een "woordsoort" behoort, en dat ieder groepje woorden (soms slechts één woord) een "zinsdeel" vormt. E.e.a. wordt onderwezen aan de hand van "duidelijke voorbeelden". In praktijk blijkt al snel dat de toepasbaarheid afneemt naarmate de zinnen complexer worden, dat zinsdelen en woorden niet bij elkaar blijven (scheidbaar samengestelde werkwoorden), dat woorden meerdere verschillende functies hebben ("te" in "te Deventer" is een voorzetsel, maar in "te groot" is het een bijwoord).Vaak worden er noodgrepen gepleegd die uiteindelijk weinig inzicht geven, zoals de groep "bijwoordelijke voorzetsels" die gedeeltelijk samenvalt met de voorzetsels, maar duidt op het gebruik als "bijwoord" in een gegeven zin.
    De schoolgrammatica is enkel beschrijvend - het geeft geen inzicht in de processen die mensen in staat stellen grammaticale zinnen te genereren en te begrijpen.
    De meest kritische evaluatie van de schoolgrammatica is, dat het een systeem is dat de relaties binnen relatief eenvoudige zinnen kan beschrijven.
    Desalniettemin zal de schoolgrammatica het startpunt vormen voor mijn onderzoek.
    Ik realiseer me als geen ander dat dit provocatief gesteld is. De schoolgrammatica is ontwikkeld als hulpmiddel bij het vreemde-talen onderwijs, en als zodanig functioneert het prima, omdat men een vreemde taal leert aan de hand van relatief eenvoudige zinnen. Als de leerling toe is aan complexere zinnen heeft hij doorgaans zo veel voeling ontwikkeld met de nieuwe taal, dat het accent niet meer ligt op de grammatica. Dit hulpmiddel werkt beter naarmate talen (syntactisch) meer op elkaar lijken: de schoolgrammatica helpt om structurele overeenkomsten tussen talen in beeld te brengen. Voor een nederlander is de schoolgrammatica daarom eerder behulpzaam bij het leren van duits of engels, dan bij het leren van chinees of maleis. Een aardig voorbeeld van het gebruik van schoolgrammatica in het vreemde talen onderwijs is de site met een cursus nederlands voor engelstaligen. Bovendien dwingt deze cursus ons om in te zien hoe complex de nederlandse syntaxis is.

    De benadering van de syntaxis die aan de uiversiteit werd onderwezen toen ik studeerde (in de jaren 80) wordt algemeen aangeduid met de TGG, de Transformationeel Generatieve Grammatica. Sindsdien is dit een familie van benaderingen geworden - er is geen sprake meer van een eenduidige school.
    Het voordeel van de benadering is, dat de syntaxis beschreven wordt in een eindig aantal termen. De pretentie lijkt dat deze benadering inzicht zou geven in de wijze waarop mensen in staat zijn grammaticale zinnen voort te brengen, nl. door eerst een onderliggende structuur te genereren en daarop een aantal transformaties los te laten die leiden naar de (waar te nemen) oppervlakte structuur. Er zijn echter ook verschillende nadelen:
    1. relatie met schoolgrammatica
      De TGG maakt nog altijd gebruik van begrippen uit de schoolgrammica als "nomen" (in NP = noun phrase), prepositie (PP = prepositional phrase) en verbum (VP = verb phrase). In die zin heeft het zich niet losgemaakt van de schoolgrammatica. Hoewel de term "constituent" niet geheel samenvalt met "zinsdeel" is er toch een opvallende overeenkomst.
    2. eenzijdige aandacht voor productie van grammaticale zinnen
      De TGG heeft niet de pretentie uitspraken te doen over het verstaan/begrijpen van grammaticale (of ongrammaticale) zinnen. Zoals bij mijn uitgangspunten zal blijken, is dit een essentiële omissie.
    3. ongefundeerde aanname
      De aanname bij de TGG is, dat twee zinnen die op elkaar lijken -in die zin dat via een "transformatie" de ene zin uit de andere kan worden geconstrueerd- een gemeenschappelijke onderliggende structuur hebben. Er is geen onafhankelijke reden om dit aan te nemen. Voor de TGG is zijn de zinnen "de slager slacht de koe" en "de koe wordt door de slager geslacht" onderliggend identiek. Deze aanname deel ik niet.
    4. ongefundeerde methode
      Gevolg van het bovenstaande is, dat de syntaxis van de TGG vaak hangt op de "verwantschaps-oordelen" van de taalkundige. Dat lijkt me geen legitieme methode, omdat hij te theorie-geladen is.

    5. Cynisch gesteld is de TGG een tamelijk gecompliceerde beschrijving van de wijze waarop taalkundigen in staat zijn om bestaande zinnen om te bouwen tot andere zinnen die er wel een beetje op lijken.
      Ook dit is natuurlijk provocatief gesteld: de TGG heeft wel degelijk nieuwe inzichten in taal als fenomeen gegeven. Zo is er de aandacht op gevestigd dat het menselijk brein op de een of andere manier is toegerust voor het leren van taal, en dat dit beperkingen oplegt aan natuurlijke talen, beperkingen die zich uiten in overeenkomsten tussen talen en taalfamilies. Ook bleek de algemene gedachtengang van toepassing op bijvoorbeeld de fonologie, waardoor in regels beschreven kan worden hoe het "onderliggende" woord wordt getransformeerd naar het "uitgesproken" woord.
  5. op zoek naar een nieuw paradigma
  6. Bij de beschouwing van de syntaxis van een taal mogen m.i. een aantal elementen niet ontbreken:
    1. voor communicatie is coderen en decoderen vereist
      Het proces van het genereren van een zin begint bij de "betekenis" in het hoofd van de spreker, die hij aan de hoorder wil overdragen. De spreker kan die betekenis niet rechtstreeks in het hoofd van de ander kan planten. Hij kan ervoor kiezen om zijn betekenis te coderen in een taal-uiting. Als die taal-uiting de hoorder bereikt is het doorgaans de bedoeling dat die wordt gedecodeerd. Als het goed is, heeft de hoorder daarna de betekenis in zijn hoofd die de spreker wilde oproepen.
      Met coderen wordt hier niet bedoeld dat een woord/begrip in een bepaalde klankvorm wordt weergegeven, en dat er een soort code-boek voor nodig is om terug te komen naar het bedoelde begrip. Onder coderen wordt hier verstaan alles wat voor de spreker nodig is om van de begripsmatige elementen in hun samenhang te komen tot een taaluiting. Dat houdt in dat zeer veel middelen ingezet kunnen worden. Het betreft zowel de syntaxis (woordvolgorde) als de morfologie (alles wat er te zien is aan de vorm van het woord, inclusief verbuiging. vervoeging, toevoegingen, samenstellingen etc), prosodie (alles wat met toonhoogte, klemtoon, zinsmelodie te maken heeft) als al het overige (ondersteunende gebaren bijvoorbeeld). Er is hierbij sprake van een interactie of een complementaire werking tussen de taaluiting van de spreker en het decoderingsapparaat van de hoorder. Simpel gezegd: de spreker kan allerlei soorten aanwijzingen (vlaggetjes) in zijn zin plaatsen over hoe de gebruikte woorden met elkaar samenhangen, en het decoderen door de hoorder bestaat uit het correct interpreteren van die aanwijzingen (vlaggetjes).

    2. taal is (in principe) efficiënt
      1. efficiency in lexicon
        Het zou mogelijk zijn om totaal verschillende woorden in het mentale lexicon te hebben voor een "groene fiets" en een "blauwe fiets". Efficiency wordt bereikt door betekenisdragende elementen te isoleren en te combineren: Met 4 kleuren en 4 objecten kan op deze manier verwezen worden naar 16 verschillende gekleurde objecten door middel van slechts 8 woorden. Dit vereist minder geheugencapaciteit. De prijs die daarvoor betaald moet worden is een groter beslag op de "rekencapaciteit" : er moet nu sprake zijn van een syntaxis die bepaald hoe twee elementen gecombineerd moeten worden: Bij een zin als:
        De grote man zat in de zwarte auto.
        moet het duidelijk zijn dat de man groot is en de auto zwart - niet omgekeerd. Bovendien is er ook geen sprake van een "grote zwarte auto" en/of een "grote zwarte man".
      2. efficiency in de relatie coderen/decoderen
        Het zou bijzonder inefficiënt zijn als de regels voor coderen en decoderen twee geheel andere sets van regels zouden zijn. Het ligt meer in de rede dat de regels voor decoderen al rol spelen bij het coderingsproces, en omgekeerd. Het kunnen (gedeeltelijk) wel verschillende sets van regels zijn -bijvoorbeeld elkaars inverse of complement- maar totaal verschillende regelsets lijken me te inefficiënt om te accepteren binnen een model van taal.
      3. efficiency in redundantie
        Taaluitingen zijn vaak enigszins reduntant: dezelfde informatie wordt op meerdere manieren verstrekt. Over het algemeen kan een significant percentage van de woorden/ letters/ klanken wegvallen voordat de mededeling voor de hoorder onbegrijpelijk wordt. Dit maakt het mogelijk om slecht gecodeerde berichten toch (goeddeels) te begrijpen en om te communiceren in een contekst met ruis. Op het eerste gezicht is redundantie juist een kenmerk van gebrek aan efficiency: taal-uitingen zouden korter worden (wellicht zelfs makkelijker te genereren) als alle redundantie eruit geperst werd. Echter: als veel taaluitingen ten gevolge van ruis onbegrijpelijk zouden worden, moeten die worden herhaald, en dat is pas echt inefficiënt. Dan is het beter om op voorhand een gedeelte van de informatie te verdubbelen. Het taalsysteem lijkt daarmee eerder afgeregeld op zijn doel (communiceren) en niet op een zo groot mogelijke beknoptheid in de taal-uiting (wat eerder een eis aan een model lijkt te zijn)
      4. efficiency in de mate waarin het decoderen kritisch is
        Het systeem van decoderen is niet zeer kritisch: als er woorden weggevallen zijn wordt een zin doorgaans ongrammaticaal, maar dat verhindert niet dat er -zo goed mogelijk- betekenis wordt gehecht aan het gedeelte wat wordt verstaan. Blijkbaar is er een mechanisme van "bij wijze van hypothese invullen" om tot een grammaticaal correcte en inhoudelijk zinvolle mededeling te komen. Dit mechanisme kan ook worden ingezet om onafgemaakte zinnen te voltooien.
        Dit is in zekere zin het complement van redundantie. De spreker komt met (enigszins) redundante taal-uitingen, de hoorder is tolerant ten opzichte van de syntaxis.
        Tolerantie in decoderen lijkt inefficiënt, want er is extra mentale activiteit voor nodig aan de zijde van de hoorder: hij moet fouten opsporen en corrigeren en/of negeren. toch is dit -net als redundantie- vanuit communicatief oogpunt de moeite zeker waard: wie enige ervaring met programmeren heeft -java-scriptjes maken bijvoorbeeld- merkt al snel dat een uitermate kritisch systeem t.a.v. syntactische welgevormdheid alleen maar uitermate frustrerend is: veel moeizaam geschreven regels komen terug met de mededeling "ongrammaticaal, deze zin kan niet worden geïnterpeteerd". Een taaluiting steeds opnieuw aanpassen totdat een kritisch systeem de uiting accepteert kan zeer bewerkelijk en tijdrovend zijn, en dat is vanuit communicatief oogpunt gezien bijzonder inefficiënt.
    3. taaluitingen zijn liniair
      Een gesproken of gelezen zin wikkelt zich af in de tijd. Het zou inefficiënt zijn om pas te beginnen met spreken als de hele zin is geconstrueerd, en het zou inefficiënt zijn om pas betekenis aan een zin te gaan hechten als die zin voltooid is. Mensen doen dat ook niet, zoals blijkt uit het feit dat (lange) uitgesproken zinnen vaak ontsporen, en uit het feit dat we incomplete zinnen kunnen begrijpen en aanvullen. Als we zouden moeten wachten tot een zin was voltooid voordat we zouden beginnen met interpreteren, dan zouden we een onafgemaakte zin niet kunnen begrijpen.
    4. psychologisch realisme is een nastrevenswaardig aspect van het modelleren van taal
      Als ons taalvermogen vanuit zichzelf efficiënt is opgebouwd, valt het niet te verwachten dat een model [gegeven de eisen van efficiency die we aan een model stellen, zoals Ockhams Razor] op een totaal andere manier dezelfde efficiency kan bereiken. Bijkomend voordeel is dat -misschien, in de verre toekomst- fysiologische middelen kunnen worden ontwikkeld die het model kunnen falsifiëren of corroboreren. In ieder geval komt hiermee een heel scala aan psychologische technieken binnen het bereik van de taalkunde.
      Psychologisch realisme biedt ook de mogelijkheden om -onder nader uit te werken condities- evidentie voor het model te ontlenen aan verschillende talen. Boven is al een voorbeeld gegeven van een zin in het nederlands, frans en engels. Als we veronderstellen dat het -op psychologisch niveau- gaat om exact dezelfde mededeling, is het enige verschil: de syntaxis van de verschillende talen. Dit biedt de mogelijkheid om wetenschappelijk netjes te werken: manipuleer één parameter (hier: de syntaxis) en houdt al het overige gelijk.
    5. Taal is een dynamisch middel in een zich ontwikkelende taalgemeenschap
      Geen enkel individu "maakt" de taal. Een individu groeit op in een taalgemeenschap, en maakt zich aan de hand van de taaluitingen waaraan het wordt blootgesteld de regels voor coderen en decoderen eigen. In deze verwervingsfase wordt dat individu voortdurend gecorrigeerd. Mooi voorbeeld van het 'ontdekken' van regels is, dat kinderen op een bepaalde leeftijd 'ontdekken' dat werkwoorden regelmatige vormen hebben.De onregelmatige vormen -die ze op basis van imitatie tot dan toe correct gebruikten- worden plotseling ook regelmatig: "gegeven" wordt nu opeens "gegeeft".
      Taal heeft echter -zoals uit de pure beschrijving vanuit de schoolgrammatica al blijkt- hoofdregels en sub-regels, of regels die met andere regels interferen. Dit maakt het mogelijk dat het individu dat wordt opgenomen in een taalgemeenschap de regels net iets anders construeert dan de eerdere generatie. Een voorbeeld is te vinden in de hiërarchische ordening van twee nominale onderdelen in een enkel zinsdeel: "een aantal mensen". Waar voor een eerdere generatie gold dat "een aantal" de kern van de nominale constituent was [met "een" de nominale determinator van "paar", en de "mensen" een soort achtergeplaatste toevoeging], wordt tegewoordig meer een meer "een aantal" opgevat als de nominale determinator van de nominale kern "mensen". Het gevolg is dat het getal van de persoonsvorm verandert: "een aantal mensen loopt" wordt "een aantal mensen lopen". Het afwijkend construeren van coderings- en decoderings regels kan een bron zijn van taalverandering.
      Met het bovenstaande is meteen de beperking van het efficiency-begrip gegeven. Nieuwe sprekers kunnen de regels anders construeren. Dat kan op andere punten weer leiden naar inconsistenties en uitzonderingen, waardoor een volgende generatie enzovoort. Taalverandering is daarmee te begrijpen als een streven naar een efficiency die nooit bereikt zal worden, waarbij de efficiency speelt op alle boven genoemde terreinen.
      Voorbeeld: De casus-grammatica van het latijn was prachtig en intern redelijk consistent, maar toch leverde het gegeven dat bepaaldheid/onbepaaldheid van een nominale constituent niet standaard werd uitgedrukt (en uit de contekst moest worden opgemaakt) de behoefte op om duidelijker te zijn met het optionele "aanwijzend voornaamwoord": ille. Dit heeft zich in verschillende talen (frans: le/la, italiaans: il, spaans: el) ontwikkeld tot een verplicht lidwoord. Hetzelfde proces heeft zich afgespeeld in de germaanse casusgrammatica. Daarmee is echter de nominale constituent iets met een verplichte interne structuur geworden, en dit kan weer een rol spelen in het afslijten van de naamvallen. Maar het afslijten van de naamvallen vraagt weer om een -nu syntactische- strengere structuur. Bovendien vraagt het om losse woorden die kunnen uitdrukken wat eerst in de naamval werd uitgedrukt. Gevolg: strengere syntaxis, meer "voorzetsel-constructies". Ik onderken ten volle dat dit een zeer schematische en tentatieve beschrijving van taalgeschiedenis is, maar ik hoop dat mijn punt duidelijk is: taalverandering (m.n. syntactisch en in samenhang daarmee morfologisch) kan begrepen worden in veranderde coderings/decoderings regels, waarbij de verandering steeds gericht is op het verbeteren van de communicatie, maar tegelijkertijd op een overzichtelijke set regels die voldoende redundant en voldoende tolerant is.
  7. hoe nu verder?
    In het bovenstaande heb ik elementen aangedragen die m.i. essentieel zijn om een taal te modelleren. De belangrijkste termen zijn: coderen/decoderen en efficiency. Van een echt samenhangend paradigma of programma is nog geen sprake. Wel kan duidelijk zijn in welke opzichten mijn model zal verschillen van de bestaande modellen: de schoolgrammatica houdt zich bezig met het in detail beschrijven van de taaluiting, de TGG houdt zich bezig met het proces van het produceren van een taaluiting, ik houdt mij bezig met het produceren van een taaluiting, in relatie tot het recipieren van een taaluiting (coderen en decoderen).
    Mijn eerste aandacht zal uitgaan naar de decodeer-kant. Ten eerste kan ik daarbij gebruik maken van zinnen die ik begrijp (ergo: ik kan ze decoderen). Ten tweede is er over het decodeer-proces van geschreven mededelingen vanuit de psychologie vrij veel bekend (vanuit de functieleer). Ten derde lijkt decoderen eerder de crux dan coderen: misschien kunnen we wel op allerlei manieren coderen zodanig dat decoderen onpraktisch of onmogelijk is, maar deze manieren van coderen zullen dan niet in de natuurlijke taal voorkomen. En ten vierde zal mijn aandacht uitgaan naar het decoderen omdat er vanuit de computer-praktijk programma's zijn die niet anders doen dan decoderen en oordelen vellen over de grammaticaliteit van een uitdrukking: zogenaamde parsers.
    Deze gedachte is niet nieuw - zie hiervoor bijvoorbeeld het engelse wikipeidaartikel over parsers. Toch is het goed mogelijk dat ik ook hier een enigszins afwijkende invalshoek kies, omdat ik decoderen steeds in relatie wil zien tot coderen, en omdat -voor zover ik weet- het plaatsen van "vlaggetjes" (zie boven) die een interactie aangaan met de parser geen standaard benadering is.
    Ik zal het decoderingsproces (met het oordeel over grammaticaliteit) daarom in eerste instantie opvatten als de activiteit van een parser. (Als bijkomend argument tegen een TGG-benadering en voor een parser-benadering is te vinden in de taalverandering die ik gesignaleerd heb bij de q-groep, die meer en meer als nominale determinator is gaan fungeren - zie aldaar)
    Om aan de hand van het bovenstaande een begin van een model te maken zal ik eerst onderzoeken wat relevante termen kunnen zijn om mee te modelleren. Dat speelt zowel met betrekking de taalelementen (woorden? zinsdelen? betekenisdragende elementen? nog iets anders? een combinatie van het voorgaande?), als met betrekking tot de coderings-regels om die elementen te manipuleren. Daarom zal ik een eerste blik werpen op het soort regels dat die elementen met elkaar in verband brengt. Dat laatste zal ik op twee manieren doen. Ik ga kijken naar een simpele formele taal, die ook enige ruimte laat bij decoderen, nl. de gewone rekenkunde. Ook zal ik een blik werpen op een echte formele taal, nl. java-script. Als eerste werp ik me echter op de analyse (coderen en decoderen van een welomschreven en overzichtelijke woordsoort, nl. de hoofd-telwoorden. Deze woorden hebben een interne structuur die makkelijk te zien is als een syntaxis. Aan de hand van deze analyse zal een beter beeld ontstaan van het soort taalkunde dat me voor ogen staat.

Bert's werk