Methodologie

Sortierung

Alle Einträge anzeigen

A   B   C   D   E   F   G   H  I   J  K   L   M   N   O   P   Q   R   S   T   U   V   W   X  Y  Z  


Codepage (Zitieren)

VerbaAlpina vereinigt Daten aus verschiedenen Arten von Quellen: Daten aus gedruckten Sprachatlanten und Wörterbüchern, die zunächst noch digitalisiert werden müssen, sowie bereits elektronisch vorliegende Daten aus einer Reihe von Partnerprojekten. Jede dieser unterschiedlichen Quellen verwendet mehr oder weniger individuelle Systeme zur Transkription. Um die erforderliche Vereinheitlichung zu realisieren, sind Listen nötig, in denen festgelegt ist, welches Schriftzeichen im Transkritionssystem der einen Quelle welche Entsprechung im Transkriptionssystem der anderen Quelle besitzt. Hauptsächlich geht es darum, die unterschiedlichen Transkriptionssysteme auf das Internationale Phonetische Alphabet (IPA) abzubilden, das innerhalb von VerbaAlpina als Referenztranskription fungiert. Zur Überführung eines quellenspezifischen Transkriptionssystems in das IPA-System ist die Anlage einer vollständigen Liste in Tabellengestalt mit Schriftzeichenentsprechungen erforderlich. Eine solche Tabelle wird als "Codepage" bezeichnet.
Nachfolgend ein Auszug aus der für die Konvertierung des AIS-Transkriptionssystems in IPA grundlegenden Codepage. Insgesamt umfasst diese Codepage rund 4500 Zeilen/Zuordnungen:


Die Kolumne `BETA` enthält die im AIS verwendeten Zeichen in nach dem Prinzip des Betacodes transkribierter Form, die Kolumne `IPA` das jeweils entsprechende IPA-Zeichen und die Kolumne `HEX` den oder die Zahlenwerte der Unicodetabelle, die dem jeweiligen IPA-Zeichen entsprechen.

(auct. Stephan Lücke)

Tags: Dokumentation Kooperation



Crowdsourcing (Zitieren)

Obwohl bereits viele relevante Sprachdaten zu den Gegenstandsbereichen von VerbaAlpina vorliegen (vor allem in Atlanten und Wörterbüchern), ist es vorgesehen, neue Daten zu erheben. Damit sollen (1) Inkonsistenzen zwischen den bereits vorliegenden Quellen ausgeglichen, (2) Lücken bzw. Ungenauigkeiten beseitigt und (3) überkommene Bezeichnungen bzw. Geräte als solche gekennzeichnet werden. Die Neuerhebungen werden aber nicht mit den klassischen Verfahren der Feldforschung durchgeführt, sondern mit den Mitteln, die uns die sozialen Medien inzwischen zur Verfügung stellen. Entsprechende Verfahren werden oft unter dem Ausdruck crowdsourcing zusammengefasst.
„Crowdsourcing ist eine interaktive Form der Leistungserbringung, die kollaborativ oder wettbewerbsorientiert organisiert ist und eine große Anzahl extrinsisch oder intrinsisch motivierter Akteure unterschiedlichen Wissensstands unter Verwendung moderner IuK-Systeme auf Basis des Web 2.0 einbezieht." (Martin/Lessmann/Voß 2008. Die Referenz auf die crowd ist in mancher Hinsicht missverständlich, nicht zuletzt deshalb, weil damit für viele Beliebigkeit, Laienhaftigkeit und mangelnder Verlässlichkeit assoziiert sind; die Bedenken sind insofern nicht ganz ungerechtfertigt, als sich entsprechende Verfahren in der Tat an eine unbestimmte und anonyme Menge potentieller Interessenten wenden. Grundsätzliche Probleme ergeben sich sowohl auf der Seite des wissenschaftlichen Projektanbieters wie auf der Seite des Projektadressaten (der ein Laie sein kann, aber nicht sein muss): Das Angebot muss hinreichend 'sichtbar' und attraktiv sein und der Adressat muss hinreichend sprach- und sachkompetent sein. Es gibt unterschiedliche Strategien, damit umzugehen. So kann man versuchen, die Attraktivität des Angebots in seiner Unterhaltsamkeit zu verankern und spielartige Oberflächen entwerfen, wie es etwa im Projektverbund play4science versucht wurde; nach den dort gemachten Erfahrungen erscheint es jedoch aussichtsreicher, den Informanten, d.h. hier den Sprechern, zu vermitteln, dass sie der Forschung ganz direkt mit ihrem persönlichen Sprach- und Sachwissen weiterhelfen (vgl. die Liste der citizen science-Projekte). Die Kompetenz lässt sich über gezielte Wissensabfragen einschätzen, aber es ist zweifellos verlässlicher, sich die gelieferten Daten durch andere Sprecher desselben Orte bestätigen und validieren zu lassen. Ein erfolgreiches Pilotprojekt zum geolinguistischen Einsatz von crowdsourcing ist der Atlas zur deutschen Alltagssprache (AdA) von Stephan Elspaß und Robert Möller; er markiert einen Meilenstein auf dem Weg in die digitale Geolinguistik.

(auct. Thomas Krefeld)


Tags: Crowdsourcing