Difference between revisions of "Dialektometrie"
Line 72: | Line 72: | ||
[http://141.201.18.15:8080/BOX_web/de/index.jsp?mainTab=0 Dr. Edgar Haimerl über die VDM] | [http://141.201.18.15:8080/BOX_web/de/index.jsp?mainTab=0 Dr. Edgar Haimerl über die VDM] | ||
+ | |||
+ | [[Category: De]] | ||
+ | [[Category: Quantitative Linguistik]] |
Revision as of 10:53, 19 September 2007
Die Dialektometrie arbeitet, anders als die Dialektologie, mit quantitativen Methoden und empirischen Datensätzen. Mit Hilfe der numerischen Klassifikation/Taxometrie lassen sich Dialektgebiete und Isoglossen bestimmen. Der Begriff Dialektometrie stammt vom Romanisten Jean Séguy, seit ihm versteht man darunter ein numerisch-mathematisches Verfahren.
Contents
Grundlagen
Ein bekannter Dialektometer ist Hans Goebl. Als Ausgangsbasis nimmt er einen empirisch erhobenen Datensatz aus N Elementen und p Merkmalen an, der auf Ordnungsmuster hin untersucht wird. Es ist also eine Menge von Objekten gegeben, gekennzeichnet durch die Ausprägung einer bestimmten Anzahl von Merkmalen. Man versucht nun diese Objekte so zu klassifizieren, dass die Objekte einer Klasse einander in einem möglichst ‚ähnlich’ sind, während sie gleichzeitig die Objekte verschiedener Klassen sich möglichst ‚unähnlich’ sind.
So ergeben sich die Teilziele einer taxometrischen Arbeit: 1. Datenreduktion, 2.Mustererkennung, 3. Klassenbildung und so ergibt sich 4. Gewinnung und Überprüfung von Hypothesen und Theorien.
Die Dialektometrie steht und fällt mit ihrer Datenbasis. Sie muss folgendes Kriterum erfüllen: Es darf nur vergleichbares verglichen werden. Fehlende Information kann in der numerischen Taxometrie zwar kompensiert werden (dazu gibt es verschiedene Verfahren), die sollte aber nur getan werden, wenn man sich der Konsequenzen bewusst ist.
Datenmatrizen
Hans Goebl prägt zwei Begriffe:
Taxandum = Welcher Ausschnitt der Realität, bzw. WAS will man klassifizieren
Taxat = In welcher Weise will man diesen Realitätsausschnitt diagnostizieren bzw. WIE will man die Klassifikation durchführen
Um die Taxate zu bestimmen braucht man Korrespondenz- oder Zuordnungsregeln, hierbei wird nur zwischen „identisch“ und „nicht identisch“ entschieden (es handelt sich also um eine nominale Skala). Ziel dieser Typisierung ist die Erstellung einer Datenmatrix, die aus p Zeilen und N Spalten besteht. Um brauchbare Ergebnisse zu erhalten muss man eine Mindestmenge von 200 – 300 Karten haben. Denn es hat sich gezeigt, dass sich bei kontinuierlicher Erhöhung der Merkmalsmenge die Klassifikationsergebnisse allmählich stabilisieren.
Ähnlichkeitsmatrizen
Hier ist nun die Wahl eines geeigneten Ähnlichkeits- und/oder Distanzmaßes erforderlich. Der Ähnlichkeitsbegriff kann z.B. durch den von „Relativen Identitätswert (RIW)“ (Formel siehe Goebl, Hans: Dialektometrische Studien. Tübingen, 1984.) nachmodelliert werden, dieser orientiert sich an Ähnlichkeiten und nicht an Verschiedenheiten. Der RI-Wert nimmt stehts positive Werte zwischen 0 und 100 an. Die Ähnlichkeitsmatrix hat die Dimensionen N mal N und entsteht durch N mal N nach demselben Schema durchgeführte Messungen. Wegen den metrischen Eigenschaften des verwendeten Ähnlichkeitsmaßes enthält die Diagonale nur den Wert 100 (reflexiv) und die beiden Hälften sind spiegelgleich (symmetrisch). Von einer Ähnlichkeitsmatrix ausgehend kann man Ähnlichkeitskarten erstellen. Dazu wird ein beliebiger Messpunkt wird als Prüfbezugspunkt (j) gewählt und mit einem weiteren Messpunkt (k) im Bezug auf seine Ähnlichkeiten verglichen. Man stellt entweder das Auftreten von Taxatübereinstimmungen (Koidentitäten KOI) oder Taxatdifferenzen (Kodifferenzen: KOD) fest.
Taxate können aber auch numerisch erfasst werden, indem man sie als Bruch mit Häufigkeit und Gesamtanzahl darstellt. Die Messdaten werden nun auf Intervallskalenniveau hinterlegt mit feiner differenzierten Werten. Nun bekommt man eine dreidimensionale Datenmatrix (Element, Merkmal und Ausprägung der Taxateigenschaft). Außerdem lassen sich so die Verzerrungen, die durch die unvermeidlichen Nullstellen entstehen, wenigstens annähernd ausgleichen.
Eine weite Möglichkeit ist die der gewichtenden Ähnlichkeitsmaße. Dieser GIW(1) (Gewichtender Identitätswert mit w = 1) ist deutlich vom RIW verschieden. Vorteil liegt vor allem in seiner variablen Gewichtungsmöglichkeit durch den Faktor w. Je größer w gewählt wird, desto kleiner werden die jeder Koidentität aufgelasteten Gewichte und desto weiter nähert sich der GIW dem RIW an.
Visualisierung
Für die Visualisierung empfiehlt sich ein diesem Fall besonders die Flächenmosaik- oder Choroplethenkarte, denn erst die Choroplethenkarten, mit den zugrundeliegenden statistischen Wertkarten (Zahlenwertkarten), ermöglichen Einsichten und Hypothesen. Dafür muss man die im Raum verteilten Messpunkte in ein fungenloses und überlappungfreies Farbschema eintragen und darauf achten eine sehpsychologisch günstige Variation zu verwenden. Es entstehen Flächen, die man Polygone nennt. Bei Choroplethenkarten ist darauf zu achten, dass es sich immer um weiche und keine abrupten Übergänge zwischen den einzelnen Dialektgebieten handelt. Heute werden viele Karten anhand der VDM erstellt, ein Programm das speziell für diesen Zweck von Haimerl entwickelt wurde.
Wird ein Prüfbezugspunkt innerhalb eines typologisch relativ kohärenten Ausschnitts des Messpunktenetzes versetzt, bleibt das Bild relativ stabil. Jedoch bei der Verlegung über eine „Sprachgrenze“ hinweg, kann es zu einem Umkippen des Bildtyps kommen.
Eine andere Möglichkeit sind Oberflächendarstellungen. Diese sind nur dann voll einsetzbar, wenn sich die Messwertmaxima (also die größten Relieferhebungen) an den Rändern des Stereogramms befinden.
Intervallalgorithmen
Zur Darstellung benutzt man häufig einen dieser Intervallalgorithmen: MINMWMAX (Es werden die Spannen zwischen Minimum und Mittelwert und zwischen Mittelwert und Maximum gebildet), MEDMW (In den Bereich zwischen Minimum und Mittelwert und zwischen Mittelwert und Maximum fallenden Variablenwerte werden ihrer Größe nach geordnet und anschließend in drei an Variablenwerten ungefähr gleich große Gruppen geteilt) oder MED (Alle Variablen werden der Größe nach sortiert und dann in annähernd gleich große Gruppen aufgeteilt).
Messmomente
Es gibt aber auch andere Mittel um komplexere, umfassendere und globalere Ordnungen sichtbar zu machen. Dazu gehört die folgende kleine Auswahl:
Spiegelpunktkarten: Hier hat man nicht die die Position vieler Vergleichspunkte zu einem Prüfbezugspunktes, sondern die Position vieler Prüfbezugspunkte zu einem Vergleichspunkt (Spiegelpunkt).
Synopse der Schiefen: Erfasst die Symmetrie bzw. Asymmetrie einer Häufigkeitsverteilung. Das Prinzip besteht darin, für jede Ähnlichkeitsverteilung die Schiefe zu errechnen und dann den Schiefenwert an der Stelle des Prüfbezugspunktes einzutragen.
Clusteranalyse: Ist ein numerisches Sortierverfahren, das Untersuchungseinheiten so in Klassen (Cluster, Gruppen) zu zerlegt, dass die zugeteilten Elemente voneinander weniger differieren (also homogener sind) als gegenüber Elementen, die außerhalb der Klassen liegen. Der Prozess der Klassenbildung beginnt mit N unverbunden dastehenden Elementen. Dann erfolgt der erste Klassifizierungsschritt, indem die ähnlichsten Elemente zusammengefasst werden. Das ganze wird N-1 mal wiederholt. Die daraus entstehende Verzweigungsstruktur ist streng hierarchisch und binär.
Isoglossenprinzip: Fordert nicht die Messung der Ähnlichkeiten, sondern der Verschiedenheiten (Differenzen oder Distanzen) und nicht die Erhebung aller N hoch 2 möglichen Verschiedenheiten, sondern nur die Berücksichtigung jener, die zwischen unmittelbar benachbarten Messpunkten auftreten. Dabei entsteht das Distanzmaß des „Relativen Fündigkeitswertes“ RFW (komplementär zum RIW).
Literatur (in Auswahl)
Altmann, Gabriel: Beitrag zur Methodologie der Areallinguistik. In: Hans Goebl [Hrsg.]: Dialectology. Bochum, 1984, S. 61 – 69.
Goebl, Hans: Dialectometrie: A Short Overview of the Principles and Practice of Quantitative Classification of Linguistic Atlas Data. In: Reinhard Köhler, Burghard B. Rieger[Hrsg.]: Contributions to Quantitative Linguistics. Trier, 1991, S. 277 - 315.
Goebl, Hans: Dialektometrische Studien. Tübingen, 1984.
Goebl, Hans: Gebiete und Phänomene: Geolinguistik und Dialektologie. In: Reinhard Köhler[Hrsg.]: Quantitative Linguistik. 2005, S. 498 – 531.
Schneider, Edgar: Methodologische Probleme der Dialektometrie. In: Hans Goebl [Hrsg.]: Dialectology. Bochum, 1984, S. 314 – 332.
Weblinks
Portal von Dr. Hans Goebl, Österrreich