Da es sich bei den vorliegenden Daten um Gespräche in schweizerdeutschen Dialekten handelt, die nicht als Schriftsprachen existieren, wurden die Transkriptionskonventionen zudem in Anlehnung an die Dieth-Schrift erweitert (Dieth 1986; vgl. auch Burger et al. 1998). Die wichtigsten Änderungen betreffen die Notation von Langvokalen: Während im Standarddeutschen verschiedene Varianten wie ‚ie’, Dehnungs-‚h’ oder auch Doppelvokal für die Anzeige eines Langvokals zur Verfügung stehen, wird im Schweizerdeutschen nur auf die letztgenannte Variante zurückgegriffen. D.h. Langvokale werden systematisch durch Doppelvokal dargestellt. Die zusammengestellten Transkriptionskonventionen finden sich in einer Übersicht im Anhang. Die Transkripte wurden zur besseren Verständlichkeit jeweils interlinear in das Standarddeutsche übersetzt.2
In einigen Gesprächen sprechen einzelne Personen (umgangssprachliches) Standarddeutsch, was dementsprechend gemäss orthografischen Regeln transkribiert wird. Es sind dies die Mutter von Sarah (SJ1_L1A_LMV), der Vater von Zoe (SJ1_L2A_LMV), die Heilpädagogin von Jonas (SJ6_L6A_LHMS) und teilweise der Schüler Ben (SJ4_L3B_LMVS), der sich damit an der Norm, dass Standarddeutsch die Schulsprache ist, orientiert.
In allen Fällen gilt, dass nicht die Transkriptionen als Primärdaten behandelt werden, sondern immer die Aufnahmen selbst. Transkriptionen haben damit nur den Stand eines Hilfsmittels, um die flüchtige Sprache für die genaue Betrachtung zu fixieren. Jedoch gehört das wiederholte Anhören der Aufnahmen zu einem wichtigen Prozess während den Analysen (vgl. z.B. Hutchby & Wooffitt 2008: 69ff.). Zwar wird der Anspruch erhoben, mit einer Transkription möglichst detailgetreu aufzuzeichnen, was in einer Aufnahme zu hören ist, es ist aber beinahe unmöglich, alle Facetten mündlicher Kommunikation in schriftlicher Form festzuhalten. Und es lässt sich auch kaum verhindern, dass nicht auch die eigene Interpretation oder ein spezifischer Analysefokus die Transkription beeinflusst. Beispielsweise werden Pausen oder Lachen unterschiedlich fokussiert und dementsprechend unterschiedlich detailliert transkribiert. Jefferson (1985: 25) kommt daher zum Schluss, dass unsere Aufmerksamkeit auf einzelne Phänomene die Transkription beeinflusst: „It depends a great deal on what we are paying attention to“ (vgl. auch Sidnell 2011: 25). Damit also keine fehlgeleiteten Analysen auf Basis der Transkriptionen entstehen können, ist der ständige Rückgriff auf die Primärdaten notwendig.
Der analytische Zugang basiert auf den vorgestellten Prämissen und Konzeptionen der Gesprächsanalyse (vgl. Kap. 2.1.1) und der Positionierungsanalyse (vgl. Kap. 2.4.3). Als Grundsatz gilt, trotz der Forschungsperspektive von aussen auf das Gespräch, jeweils die Perspektive der Interagierenden einzunehmen und für die Analyse fruchtbar zu machen. Die analytische Aufgabe besteht also darin nachzuvollziehen, wie die Gesprächsteilnehmenden interaktiv Sinn herstellen und einander anzeigen, wie sie das Gesagte verstehen (vgl. Deppermann 2008a: 50; Sacks, Schegloff & Jefferson 1974: 729). Um bei der Analyse diesen Perspektivenwechsel zu vollziehen, wird nach dem Prinzip des next-turn proof procedure vorgegangen (vgl. z.B. Sidnell 2013: 79), d.h. es wird der jeweilig nächste Turn in die Sequenzanalyse einbezogen.
Der erste Analysezugang beginnt aber nicht erst mit der konkreten Sequenzanalyse, sondern schon bei der Erstellung von Gesprächsinventaren als Teil der Datenaufbereitung (vgl. Kap. 3.1.2). Nach der Datenerhebung habe ich jeweils zeitnah für jedes Gespräch ein Inventar erstellt (vgl. Deppermann 2008a: 32ff.). Darin wurden Angaben zu Inhalt und Ablauf sowie erste Beobachtungen und Hinweise für allfällige Forschungsfragen notiert. Diese Inventare dienen einerseits dazu, die Gespräche als Gesamtereignisse zu erfassen und so die Makrostruktur des Gesprächstyps zu identifizieren. Andererseits lassen sich anhand dieser Gesprächsübersicht und den Notizen zu interessanten Phänomenen auch die relevanten Stellen für die mikroskopische Analyse einfacher wiederfinden.
Es wurden dann erste Transkripte erstellt, die ebenfalls den Status einer Erstanalyse einnehmen. Denn durch das mehrfache Anhören der gleichen Stellen entwickelt sich ein Verständnis für auffällige Muster in den Daten. Von den identifizierten Phänomenen wurden Datenkollektionen erstellt, da jedes weitere Datum in spezifischem Kontext neue Facetten desselben Einzelphänomens zutage führen kann (vgl. z.B. Gülich & Mondada 2008: 18; Sidnell 2011: 31). Dabei geht es nicht um erschöpfende Datenkollektionen, die alle Fälle eines Einzelphänomens enthalten, sondern es handelt sich um eine spiralförmige Theoriebildung im Sinne des theoretical sampling in der Grounded Theory (Glaser & Strauss 1967; vgl. auch Charmaz 1995; Mey & Mruck 2011): Nach der Gegenstandskonstitution , welche basierend auf ersten Sequenzanalysen gebildet wird, werden so lange vergleichende Fälle gesammelt ( sampling ) und nach den Prinzipien der Sequenzanalyse analysiert ( Gegenstandsanalyse ), bis eine theoretische Sättigung erreicht wird, d.h. bis bei neuen Daten keine weiteren Aspekte mehr auftreten, die die Analyse noch ergänzen (vgl. Deppermann 2008a: 94ff.). Dabei kommt es immer wieder zu Anpassungen und Neudefinitionen der Gegenstandskonstitution und somit zu neuen Strukturierungen der Datenkollektionen.
Bei der Auswahl von analyserelevanten Passagen für die Datenpräsentation geht es schliesslich darum, besonders klare Fälle zu identifizieren, die prototypisch für den Gesprächstyp oder für ein bestimmtes Phänomen sind (vgl. Deppermann 2008a: 52). Dadurch dass die Gesprächsanalyse mit der Positionierungsanalyse kombiniert wird, ist allerdings häufig die Präsentation längerer Transkriptausschnitte notwendig, als dies in der klassischen Konversationsanalyse gängig ist. Da nämlich die verschiedenen Positionierungen jeweils im gegebenen Kontext eingebettet sind und die Dynamik der Folgeaktivitäten mitbestimmen, sind die Analysen nur nachvollziehbar, wenn diese Kontexte verfügbar gemacht werden. So werden teilweise mehrseitige Transkriptausschnitte dargeboten, obwohl die fokussierten konversationellen Aktivitäten (vordergründig) nur wenige Äusserungen umfassen.
Eine Frage, die im Diskurs zur Gesprächsanalyse immer wieder auftaucht, ist die der Verallgemeinerung und Quantifizierung gesprächsanalytischer Ergebnisse (vgl. dazu die dezidierte Stellungnahme im Postscript von Schegloff 1996b: 22ff.). In der Gesprächsanalyse liegt der Fokus grundsätzlich nicht auf der Frage, wie oft ein Phänomen vorkommt, sondern wie in einem konkreten Kontext Ordnung hergestellt wird (vgl. z.B. Hutchby & Wooffitt 2008: 108ff.; Psathas 1995: 2f.; ten Have 2007: 39). Auch besteht die Gefahr, dass die Quantifizierung von Phänomenen zu voreiligen Kategorisierungen führt, die bei Detailanalysen in den spezifischen Kontexten eine weniger klare oder andere ‚Ordnung’ aufzeigen würden (vgl. Hutchby & Wooffitt 2008: 110); ein Problem, das Deppermann (2008a: 37) ebenfalls im Rahmen der in der Gesprächsanalyse typischen Datenkollektionen nennt. Da also häufig die spezifischen Kontexte das Interaktionsereignis beeinflussen und sich kaum verlässliche Verallgemeinerungen und Voraussagen machen lassen, spricht Peräkylä (2004: 297) eher von einer Verallgemeinerung der sprachlichen Möglichkeiten („ social practices that are possible , i.e. possibilities of language use “). Demnach wird zwar keine Aussage über die tatsächlichen Ausprägungen sprachlicher Aktivitäten in anderen Settings getroffen, jedoch zeigt die Analyse der Bearbeitung einer spezifischen kommunikativen Aufgabe in einem Kontext die konkreten Möglichkeiten auf, wie diese kommunikative Aufgabe gelöst werden kann und wie sie demnach potenziell auch in anderen Kontexten gelöst wird.
Читать дальше