publikationen
tipps
fragenkataloge
wichtige links
impressum
 
Skriptum
Methodologie

Prof. Dr. Hubert Stigler

Stand: 14. Jänner 2001

 
Inhalt
 
1 Was ist Methodologie
2 Wissenschaftstheoretische Grundlagen
 
2.1 Einleitung
 
2.2 Empirisch-analytischer Ansatz
 
2.2.1 Naiver Empirismus
 
2.2.2 Logischer Empirismus
 
2.2.3 Kritischer Rationalismus
 
2.2.4 Erziehungswissenschaft als empirische Wissenschaft
 
2.2.4.1 Anfänge
 
2.2.4.2 Der Kritische Rationalismus in der Erziehungswissenschaft
 
2.3 Der hermeneutische Ansatz
 
2.3.1 Allgemeines
 
2.3.2 Wilhelm Dilthey
 
2.3.3 Die Kritische Theorie
 
2.3.3.1 Allgemeines
 
2.3.3.1 Die Kritische Erziehungswissenschaft
 
3 Zwei ausgewählte sozialwissenschaftliche Theorieansätze und ihre wissenschaftstheoretische Basis
 
3.1 Der Behaviorismus
 
3.2 Die Handlungsforschung
 
4 Grundlagen empirischer Sozialforschung
 
4.1 Allgemeines
 
4.2 Grundbegriffe
 
4.2.1 Begriff und Konstrukt
 
4.2.2 Theorie und Hypothese
 
4.2.3 Operationalisieren
 
4.2.4 Variable
 
4.2.5 Messen
 
4.3 Auswahlverfahren
 
4.3.1 Allgemeines
 
4.3.2 Anforderungen an die Stichprobenkonstruktion
 
4.3.3 Typen von Auswahlverfahren
 
4.3.3.1 Nichtzufallsgesteuerte Auswahlverfahren
 
4.3.3.2 Zufallsgesteuerte Auswahlverfahren
 
4.4 Forschungsformen
 
4.4.1 Experiment
 
4.4.2 Evaluationsforschung
 
4.4.3 Das Survey-Modell
 
4.4.4 Einzelfallforschung
 
4.5 Methoden der Datenerhebung
 
4.5.1 Befragung und Interview
 
4.5.1.1 Einteilungsgesichtspunkte
 
4.5.1.2 Das qualitative Interview
 
4.5.1.3 Das quantitative Interview
 
4.5.2 Inhaltsanalyse
 
5 Anhang
 
5.1 Materialien
 
5.1.1 Wissenschaftstheoretische Grundlagen
 
5.1.1.1 Hermeneutik
 
5.1.1.2 Dialektik
 
5.2 Literatur
 
5.2.1 Wissenschaftstheoretische Grundlagen
 
5.2.2 Grundlagen empirischer Sozialforschung
 
5.2 Fragensammlung
 

1 Was ist Methodologie
 
In einer sehr allgemeinen Definition kann die Aufgabe von Wissenschaften darin gesehen werden, Abläufe in der uns umgebenden sozialen, aber auch materialen Wirklichkeit zu erkennen und zu erklären, um daraus Möglichkeiten für praktisches Handeln abzuleiten und die Basis für eine Bewältigung und Veränderung dieser Wirklichkeit zu schaffen. Ein Unterschied wissenschaftlicher Form des Erkennens und Erklärens gegenüber einer alltäglichen besteht im Versuch den Prozess der Erfahrung unter Zuhilfenahme von Forschungsmethoden zu systematisieren. Der Begriff der "Methode" im alltäglichen Verständnis, meint die Orientierung an und Berücksichtigung von Regeln bei der Durchführung bestimmter Abläufe (z.B. Der Lehrer der nach einer bestimmten Methode unterrichtet, oder die Verwendung bestimmter Atemtechniken [=Methoden] bei einer Geburt etc.). Methodologie im wissenschaftlichen Sinn meint die Beschäftigung mit Problemen und Möglichkeiten von verschiedenen Zugangsweisen oder Wegen, um Wissen über den Objektbereich einer
 
Wissenschaftstheorie: Sammelbegriff für alle metawissenschaftlichen Erörterungen über Wissenschaft, zu denen insbesondere die logische Analyse der Begriffe der Wissenschaft, der wissenschaftlichen Methoden und der Wissenschaftsvoraussetzungen gehört (Lexikon der Soziologie).
wissenschaftlichen Disziplin zu gewinnen. Der Begriff des Objektbereichs bezeichnet dabei diejenigen Teilaspekte der Wirklichkeit, die den zentralen Bezugspunkt der Arbeit innerhalb einer bestimmten Disziplin bilden. Methodologische Reflexion zielt also auf die theoretische Begründung verschiedener Methoden, die unterschiedlichen Arten die Welt - uns selbst und das uns Umgebende - zu sehen. Sie fragt nach den Bedingungen der Möglichkeiten von Verstehen, Erklären, Beobachten, Analysieren, Vergleichen usw., sowie nach der Gültigkeit, der durch Forschung gewonnenen Aussagen. Sie fragt nach den verschiedenen Bedingungen des Erkennens, nach der historischen, gesellschaftlichen bzw. sozialen Einbettung des "Denkens" und der "Denker" und stellt somit eine Reflexion über Wissenschaft dar. Wissenschaftstheorie bzw. Erkenntnistheorie sind die Bezeichnungen für jene philosophischen Disziplinen, die sich mit diesen Fragestellungen befassen.
Grundsätzlich lassen sich 3 Ebenen der theoretischen Reflexion über Wissenschaft herausarbeiten:
 
a) Die Abhängigkeit von Wissenschaft von ihren natürlichen und gesellschaftlichen Grundlagen (Entstehungszusammenhang)
b) Der innere Zusammenhang von Wissenschaft und ihrer methodologischen Orientierungen (Begründungszusammenhang)
Die Wirkung von Wissenschaft auf Natur und Gesellschaft (Verwertungszusammenhang).
 
 
2 Wissenschaftstheoretische Grundlagen
  •  
  • 2.1 Einleitung
    Im folgenden werden zwei sich kontrastierende und in ihrem Grundverständnis völlig unterschiedliche wissenschaftstheoretische Ansätze(=Verständnisweisen von Wissenschaft) dargestellt: Der empirisch-analytische und der hermeneutisch-geisteswissenschaftliche Ansatz. Auf drei Ebenen lassen sich grundlegende Unterschiede zwischen ihnen ausmachen:
     
    a) im Erkenntnisanspruch (Erkenntnisziel und -interesse)
    b) in den Erkenntnismitteln, das heißt in der Methodologie (Art, Bedeutung und Einsatz von Denk- und Forschungsmethoden)
    c) und in den zugrunde liegenden Positionen (Werten, Annahmen).
     
    2.2 Empirisch-analytischer Ansatz
     
    Was bedeutet "empirisch-analytisch"? Empirisch heißt "erfahrungsmäßig", also auf Erfahrung, Beobachtung, Befragung, Experiment usw. basierend. "Analytisch" heißt zunächst einmal "in seine Bestandteile auflösend": der zu untersuchende Gegenstand wird in seine Bestandteile zerlegt und deren Beziehungen untereinander werden theoretisch rekonstruiert, wobei die Mathematik als Hilfsmittel dient. Dieser Rückgriff auf mathematisch-naturwissenschaftliche Methoden ist eines der Charakteristika empirisch-analytischen Vorgehens innerhalb der Sozialwissenschaften. So hat sich der Begriff "quantitativ" mittlerweile fast zu einem Synonym für empirisch-analytische Forschung entwickelt. Das Attribut "qualitativ" soll demgegenüber häufig das Wissenschaftsverständnis einer hermeneutisch orientierten Wissenschaft charakterisieren. Statt des im übrigen recht unpräzisen Begriffspaares "quantitativ versus qualitativ" wird auch die gleichermaßen unscharfe Beziehung "harte versus weiche" Daten verwendet.
    Häufig verwendet man statt des Begriffs "empirisch-analytisch" auch den Begriff "nomothetisch". Dieser Begriff geht auf den deutschen Philosophen Wilhelm Windelband zurück, der die auf Gesetze zielende Methode der Naturwissenschaften als "nomothetisch" (von Nomos = Gesetz und These = Behauptung), die das Einzelne, Ideelle, Geschichtliche hervorhebende Methode der Geisteswissenschaften als "idiographisch" (von Idiom = Eigentümlichkeit und Graphik = [Be-] Schreibkunst) bezeichnete.
     
    Empirismus: philosophische Strömung, die bereits mit dem Ausgang des Mittelalters einsetzt und die nicht Vernunft, sondern in der Erfahrung die Quelle allen Wissens sieht. Im Gegensatz zum klassischen Rationalismus will der E. von der unmittelbar gegebenen Wahrnehmung her durch induktive Schlüsse die allgemeinen Gesetzmäßigkeiten erschließen. Neuer Formen des E. lassen Erfahrung nicht mehr als Erkenntnisquelle, sondern nur mehr als Bestätigungsinstanz für Aussagen gelten (Lexikon zur Soziologie).
     
    2.2.1 Naiver Empirismus
     
    Historisch betrachtet hat sich die moderne empirisch-analytische Wissenschaftsauffassung in den Sozialwissenschaften aus dem Empirismus bzw. Positivismus entwickelt. Der ältere Empirismus geht auf R. BACON und den englischen Aufklärer D. HUME zurück und gelangte im 17. und 18. Jahrhundert zu einem Höhepunkt, der neben HUME noch durch 2 weitere Männer gekennzeichnet ist: LOCKE (1632-1704) und BERKELEY (1684-1753). Diese Philosophen lehnten die Vernunft als Grundlage der Erkenntnis ab und postulierten dagegen ein tabula-rasa-Bild des menschlichen Verstandes. Wissenschaft sollte ihrer Meinung nach, eine rein empirische (= Erfahrung als Quelle der Erkenntnis) Wissenschaft sein, die die Metaphysik als unwissenschaftlich ausschalten sollte
     
    Ich sehe also keinen Grund für die Annahme, dass die Seele denke, ehe sie von den Sinnen mit Ideen versehen wurde, über die sie nachdenken kann...Denn die Objekte unserer Sinne drängen vielfach unserem Geist ihre besonderen Ideen auf, ob wir wollen oder nicht; und die Operationen unseres Geistes lassen uns wenigstens nicht ohne gewisse dunkle Begriffe von ihnen bleiben...Je nach der Verschiedenheit, mit der die uns umgebenden Körper auf unsere Organe einwirken, ist der Geist gezwungen, die Eindrücke aufzunehmen; er kann sich der Wahrnehmung der mit ihnen jeweils verknüpften Idee nicht entziehen. (LOCKE 1689).
     
    Rationalismus, klassischer: Erkenntnistheorie , vertreten u.a. von Descartes, Leibnitz, die auf Annahme von unmittelbar (a priori) gegebener, "eingeborener" Verstandesbegriffe wie Kausalität, Substanz etc. beruht. Im Gegensatz zum Empirismus etwa von Hume und Locke werden sie für wahr gehalten, weil sie im Denken und nicht in Sinneswahrnehmungen begründet sind (Lexikon der Soziologie).
    Die Grundtendenz des empirischen Ansatzes ist in dieser frühesten Fassung des Empirismus, am deutlichsten: Die radikale Kritik an den unbegrenzten Fähigkeiten des menschlichen Verstandes, die Kritik an der "reinen Vernunft", die Kritik an jeder Form des apriorischen Wissens. Die Grundthese des englischen Empirismus ist, das alles, was gewusst werden kann, sich (ausschließlich) auf Erfahrung gründen muss. Für die weitere Entwicklung bedeutsam sind die Auffassungen des Naiven Empirismus über den Erkenntnisvorgang: die Welt bildet sich in der sinnlichen Wahrnehmung bei Wahrnehmenden direkt ab, der Wahrnehmende hat eine, - zwar gelegentlich durch "Idole" und Aberglauben verstellten (BACON) - aber doch prinzipiell unmittelbaren Zugang zur wirklichen Welt, man kann völlige Gewissheit über den wahren Zustand der Dinge erlangen. Aus dieser Theorie der "einfachen Vorstellungen" - auch Sensualismus genannt (LOCKE, MILL u.a.) ergeben sich zwei wichtige Folgerungen, die auch für spätere Fassungen des Empirismus bestimmend wurden:
    a) Dem Wahrnehmenden wird eine völlig passive Rolle unterstellt, man kann die Welt, will man sie unverfälscht aufnehmen, nur durch "photographische" Abbildung im eigenen Organismus erleben und diese Wahrnehmungen sind alles, was den "Geist" ausmacht.
    b) Es kann nun keinerlei nicht-relevantes Wissen geben und keine irrelevante Wissenschaft, so ferne sie nur empirisch verfährt. Jedes Einzelproblem hat prinzipiell die gleiche Wichtigkeit und fügt dem Wissensbestand ein neues Detail hinzu.
    Diese Gedanken wurden von A. COMTE, der gleichzeitig als Begründer der Soziologie gilt, aufgenommen und weiterentwickelt. COMTE forderte vom Gegebenen, vom Tatsächlichen, eben vom "Positiven", auszugehen und hielt die Frage nach dem hinter den Erscheinungen stehenden Sinn für philosophisch unfruchtbar. Seiner Meinung nach verläuft die Entwicklung der Philosophie, aber auch des einzelnen Individuums, in drei Stadien.
     
    a) das theologische, das zu Beginn im Kindesalter der Entwicklung des Denkens der Menschen vorherrschte und sich dadurch auszeichnet, dass theologische oder fiktive Denk- und Erklärungsmuster verwendet wurden. Wobei Erscheinungen und Phänomene in Natur und Gesellschaft als Folge von Einwirkungen übernatürlicher Kräfte und Wesen gedeutet wurden. Naturkatastrophen oder soziale Anomalien z.B. wurden dabei als direkte Intervention von übernatürlichen Wesen interpretiert.
    b) das metaphysische, in das die Menschheit im Zuge eines geistigen Reifungsprozesses gelangte. Die bewegenden Ursachen des Weltgeschehens wurden dabei nicht mehr übernatürlichen Wesen, sondern abstrakten und innerweltlichen Kräften und Prinzipien (vgl. z.B. Gesellschaftstheorie von T. HOBBES) zugeschrieben.
    c) das positive, das auf das theologische und metaphysische Stadium folgt und das im Gegensatz zur fiktiven Denkweise in den Zustand des "positiven Geistes" führen sollte. Positiv meint hier eine sachgerechte, realistische und konkrete Denkhaltung gegenüber der Welt und ihren Problemen.
    Im Gegensatz zu den "Geistbeschwörern" wollte COMTE von der unmittelbar erfahrbaren Wirklichkeit ausgehen und den grundlegenden Gesetzen der sozialen Bewegung auf die Spur kommen. Um dieses positive Stadium endgültig zu erreichen, sollte Wissenschaft nur noch von positiv gegebenen Tatsachen ausgehen. Statt Spekulation sollten Erklärungen und Vorhersage die Wissenschaft bestimmen. Die allgemeine Aufgabe von Sozialwissenschaft, als deren Begründer er oft genannt wird, sah COMTE darin, die Öffentlichkeit über soziale Erscheinungen wissenschaftlich aufzuklären. Ihre Aufgabe sei es lediglich konkrete Zusammenhänge festzustellen, ohne sich unmittelbar in praktisch-politische Angelegenheiten des öffentlichen Lebens einzumischen.
     
    2.2.2 Logischer Empirismus
     
    Der Wiener Kreis, eine Vereinigung von Philosophen und philosophisch interessierten Naturwissenschaftlern, zu der u.a. E. MACH, M. SCHLICK, R. CARNAP und O. NEURATH zählten, entwickelte 50 Jahre später den Positivismus COMTES weiter zum sogenannten Neopositivismus, indem sie eine an den Naturwissenschaften orientierte Methodologie konzipierten, die zur Grundlage aller Wissenschaften, somit auch der Sozial- und Geisteswissenschaften werden sollte.
    Die logischen Empiristen erkannten, dass einem die Natur nicht sagen kann, was man an ihr beobachten soll. Der Forscher muss schon vorher wissen, was er beobachten will. Er muss "Kriterien" haben, nach denen er aus der unendlichen Menge von "Beobachtbarem" auswählen kann. Mit anderen Worten Wissenschaft beginnt nicht mit der Erfahrung, sondern mit theoretischen Konzeptionen.
    Man kann das Programm des Neopositivismus damit umschreiben, dass - explizit - die Vorstellung fallen gelassen wird, "Erkenntnis" und Wissenserwerb erfolge unmittelbar mit dem Wahrnehmungsakt: (Subjektive) Erfahrung müsse immer erst selbst in Sätzen "protokolliert" werden (Protokollsätze) und eine Theorie müsse - nach festzulegenden "Sinnkriterien" aus Beobachtungssätzen abgeleitet (=induziert) werden. Der Neopositivismus verbindet also den naiven Empirismus mit dem Rationalismus. Der Aufbau aller Erkenntnis geschieht nach logischen Gesetzen und basiert auf der Erfahrung. Zentral für die Ideen des Wiener Kreises erscheint auch die Problematisierung der Bedeutung von Sprache als Vermittlungsinstanz von Erkenntnis und Erfahrungen, die auch die Basis für das Postulat einer Einheitswissenschaft darstellt.
     
    normativ, Normativität: Bezeichnung für Aussagen, in denen eine Bewertung ausgedrückt wird (z.B. richtig, gut), verbunden mit der Forderung, sich dieser Bewertung anzuschließen. Der Gegenbegriff heißt deskriptiv und bezeichnet Aussagen, die lediglich eine Beschreibung enthalten (Lexikon der Soziologie).
    Ausgangspunkt dieser wissenschaftstheoretischen Position bildet das Verständnis, dass es Aufgabe von Wissenschaft sei, Aussagesysteme über die Wirklichkeit zu entwerfen, die dem empirischen Sinnkriterium zu genügen haben. Dieses Kriterium meint, dass wissenschaftliche Sätze nur dann als solche zu betrachten seien, wenn sie an der Erfahrung verifiziert (= bestätigt) werden können.
    Theorien als wissenschaftliche Aussagesysteme müssen dabei folgenden Bedingungen genügen:
     
    a) Sie müssen sich nach den Gesetzen der Logik richten, d.h. sie müssen formal-logisch richtig sein (Postulat der Rationalität).
    b) Theorien enthalten allgemein gültige Aussagen über einen Realitätsbereich (Postulat der Allgemeingültigkeit).
    c) Wissenschaftliche Aussagen dürfen nur wertfreie Aussagen enthalten. Alle Wertungen, jegliche Normierung menschlichen Handelns durch Wissenschaft, sind nicht Teil einer wissenschaftlichen Theorie. Theorien sind daher kausal-erklärende und keine normierenden (handlungsvorschreibenden) Aussagesysteme (Postulat der Wertfreiheit).
    Die Unterscheidung zwischen sogenannten "Ist" und "Soll"-Sätzen geht auf den früher genannten HUME zurück.
    d) Jede wissenschaftliche Theorie muss an der Wirklichkeit überprüfbar sein. Sie muss sich an ihr (entweder) verifizieren oder falsifizieren lassen (Postulat der Nachprüfbarkeit).
    Wer von der Erfahrung ausgeht, wird notwendigerweise auf den Weg der Induktion verwiesen. Erfahrungen, Beobachtungen und Fakten liegen nie in allgemeiner Form vor sondern als Einzelerfahrungen, individuelle Begebenheiten und singulare Erscheinungen. Im logischen Empirismus wird die Induktion gegenüber dem naiven Empirismus beträchtlich eingeschränkt. Es wird nicht mehr aus der Beobachtung von Einzelfällen auf Naturgesetze geschlossen, sondern es geht darum, den
     
    Induktion: Schluss von einer endlichen Zahl singulärer (einzelner) Fälle auf alle Fälle einer Klasse (Lexikon der Soziologie).
    Geltungsanspruch hypothetischer Vorhersagen aufgrund früherer gewonnener Beobachtungen zu begründen. Hypothesen sollen empirisch "verifiziert" werden. Je häufiger dies gelingt, sich eine Hypothese also empirisch bestätigen lässt, desto höher ihr Vorhersagewert für zukünftige Ereignisse. Wobei mit dem Begriff der Hypothese, noch nicht an der Erfahrung erprobte Teilaspekte von wissenschaftlichen Aussagesystemen, gemeint sind. Eine Hypothese stellt eine wissenschaftlich begründete, aber empirisch noch nicht überprüfte, aber wahrscheinlich wahre Aussage über die Wirklichkeit dar, wobei der Begriff der Wahrheit einer solchen Aussage rein an Erfahrung orientiert ist.
     
    kausal: Bezeichnung für eine Beziehung zwischen Sachverhalten, Ereignissen, von denen ein Komplex als Ursache aufgefasst wird, der die anderen bewirkt.
    Das Ziel wissenschaftlicher Arbeit lässt sich im Rahmen des empirisch-analytischen Ansatzes zusammenfassend als Versuch verstehen, die Ursachen für soziale Phänomene und Vorgänge zu finden und benennen zu können. Als Sozialwissenschaftler will man etwas erfahren über mögliche Gesetzmäßigkeiten des gesellschaftlichen Miteinanders der Menschen. Man möchte nicht nur etwas über verschiedene Einzelereignisse wissen, sondern ist bestrebt, Zusammenhänge zu erkennen und Tatbestände zu "erklären". Die Verwendung des Verbs "erklären" bedeutet dabei, dass Wissenschaftler es nicht bei einer bloßen Deskription konkreter Umstände belassen wollen: Sie suchen nach allgemeinen, grundsätzlich gültigen Regeln, nach Gesetzmäßigkeiten, die sich hinter beobachtbaren Tatbeständen verbergen.
     
    2.2.3 Kritischer Rationalismus
     
    Der kritische Rationalismus wurde 1934/35 von dem damals 32jährigen KARL R. POPPER mit seinem berühmten Buch "Logik der Forschung" begründet. Popper hat zunächst das oben dargestellte Verifikationsprinzip des Logischen Empirismus kritisiert und an seiner Stelle das sogenannte "Falsifikationsprinzip" vorgeschlagen.
    Der kritische Rationalismus bleibt zwar einerseits in der Tradition empiristischer Wissenschaftstheorien, unterzieht aber gleichzeitig alle Versuche, Wissen als sicheres Wissen zu begründen, einer radikalen Kritik. Nach POPPER sollte ein Wissenschaftler nicht versuchen, Theorien und Hypothesen zu belegen (= verifizieren), sondern er muss versuchen, sie zu widerlegen (= falsifizieren). Ist eine Theorie sehr häufig der "Bewährungsprobe" eines Falsifikationsversuches unterzogen worden, schlägt POPPER vor, sie als "bewährt" zu bezeichnen. Dies bedeutet jedoch nicht, dass sie auch "richtig" oder "wahr" ist, da ja immer die Möglichkeit besteht, dass sie sich bei einer neuerlichen Überprüfung als falsch erweist. Theorien können sich über derartige empirische Tests der Realität nur annähern, diese aber niemals gänzlich erfassen.
     
    Rationalismus, kritischer: Umwandlung der Erkenntnistheorie des klassischen R. durch ... (c) Aufgabe der Vorstellung einer Wahrheitsgarantie durch Rückgang auf die Erkenntnisquelle (Vernunft) zugunsten der ständigen kritischen Überprüfung von Hypothesen und Theorien; (d) zur Sicherung der Überprüfungsmöglichkeit Ersatz des Verifizierbarkeitskriteriums durch das Kriterium der Falsifizierbarkeit. Der k. R. versteht sich als explizite Gegenposition zum logischen Empirismus (Lexikon der Soziologie).
    Nach dem eben skizzierten Selbstverständnis ist es also vordringliche Aufgabe von Wissenschaft zu prüfen, inwieweit gefundene Erklärungen einer Überprüfung standhalten, also die kritische "In-Frage-Stellung" von Ergebnissen wissenschaftlicher Erkenntnis. Wobei für POPPER diese Form wissenschaftlichen Vorgehens jeder empirischen Methode zu Grunde liegen sollte, ganz gleich, ob es sich um Fragen der Natur-, Geistes- bzw. Sozialwissenschaften handelt.
    POPPER geht davon aus, dass am Anfang jeglicher Wissenschaft die Theorie steht und sich jede Beobachtung nur im Licht der Theorie vollzieht (Scheinwerfertheorie): Man gewinnt auf reiner Erfahrungsgrundlage keine neuen Erkenntnisse, sondern nur durch Aufstellung neuer Theorien.
    In Korrektur und Weiterentwicklung des Naiven Empirismus räumt demgegenüber der Kritische Rationalismus also der Theorie den logischen Vorrang ein. Er stellt sich damit in die Tradition der abendländischen Philosophie, die in verschiedenen Ausprägungen, insbesondere im philosophischen Kritizismus Immanuel KANTs, herausstellte, das menschliche Erkenntnis immer schon durch die Wahrnehmungsleistungen der Sinne und die Ordnungstätigkeit des Verstandes geprägt ist.
    Immer wieder wurde in dieser Diskussion besonders auf die Bedeutung der Sprache verwiesen. Alle Wirklichkeit, soweit sie sprachlich erfasst wird, ist von der Sprache her strukturiert und interpretiert: Wir erfassen die Wirklichkeit nie als die, die sie sein mag, also rein, ohne ein Dazwischentreten der Sprache und der sie bestimmenden Formen und Mechanismen.
    Bedenkt man weiter, dass zumindest die wissenschaftliche Wirklichkeitserkenntnis Produkt langer Erfahrung und eines entwickelten Problembewusstseins ist, so wird klar,
    ...dass es keinen voraussetzungslosen Zugang zu den "reinen Tatsachen gibt. Vielmehr gehen jeder Beobachtung bestimmte Erwartungen, theoretische Annahmen oder Hypothesen voraus. Ebenso sind auch Sätze über Beobachtungen, also Beschreibungen, immer Interpretationen der beobachteten Tatsachen ... im Licht von Theorien. Die wissenschaftliche Erkenntnis kommt nicht durch das Sammeln von Beobachtungsergebnissen zustande, sonder dadurch, dass wir erfolgversprechende Annahmen machen und diese dann gründlich zu prüfen versuchen (BREZINKA 1971, Von der Pädagogik zur Erziehungswissenschaft).
    Wissenschaft im Sinne des Kritischen Rationalismus nimmt also ihren Ausgangspunkt nicht in Tatsachen, sondern in Theorien, die auf eine komplexe Wirklichkeit bezogen sind. Immer wieder wird in diesem Zusammenhang der Satz POPPERs zitiert, dass wissenschaftliche Theorien mit Netzen verglichen werden können, die ausgeworfen werden, um Welt, Wirklichkeit, Tatsachen, Realität ... einzufangen, um sie zu rationalisieren, zu erklären und zu beherrschen.
    Eine Theorie ist dabei immer auf einen Gegenstands- bzw. Objektbereich bezogen, z.B. auf den Gegenstandsbereich des Sozialen mit dem Teilbereich Erziehung. Um diesen Gegenstandsbereich ganz oder teilweise zu erklären oder über seine Zukunft etwas auszusagen (Prognose), werden Hypothesen (=Gesetzesannahmen) entwickelt. Sie müssen Grund für die Annahme bieten, dass eine generelle oder weitest mögliche Gültigkeit nachweisbar ist. Die Summe eines Hypothesengefüges zu einem bestimmten Gegenstandstandsbereich wird dabei als Theorie bezeichnet.
     
     
    Erziehungswissenschaft als empirische Wissenschaft
    2.2.4.1 Anfänge
     
    Erste Versuche, die Pädagogik nach dem Vorbild der Naturwissenschaften zu entwerfen, wurden in der zweiten Hälfte des 18. Jahrhunderts unternommen. Hier ist insbesondere Ernst Christian TRAPP (1745-1818) zu nennen. TRAPP wendete sich gegen eine theologische Fundierung der Pädagogik und forderte statt dessen in Anlehnung an die Naturwissenschaften den Rückgriff auf Beobachtung und Erfahrung. Eine zweite Phase, Pädagogik als empirische Wissenschaft zu entwerfen, setzte gegen Ende des 19. Jahrhunderts ein. Wegbereiter ist hier die Psychologie. Als Begründer dieser neuen, naturwissenschaftlichen Psychologie sind Gustav, Theodor FECHNER (1801-1857), der die Psychologie als "Psychophysik" proklamierte, sowie Willhelm Wundt (1832-1920) zu nennen, der erstmals Psychologie als eine empirische, auf Beobachtung und Experiment basierende Disziplin konzipiert.
    Etwa seit 1890 finden sich Ansätze einer "experimentellen Pädagogik", die versucht, auch Pädagogik nach dem Vorbild der Psychologie zu betreiben: Insbesondere zwei Autoren sind dabei zu nennen: Ernst MEUMANN und Wilhelm August LAY. Ernst MEUMANN (1862-1915) war Assistent von Wilhelm WUNDT und versuchte, die ihm aus der Psychologie geläufigen naturwissenschaftlichen Verfahren auf die Erziehungswissenschaft zu übertragen, wobei er unter anderem Untersuchungen über Sprachentwicklung, Lern- und Gedächtnisprobleme durchführte. Wilhelm August LAY (1862-1926) war zunächst lange Jahre Volksschullehrer und promovierte 1903 mit einer Arbeit über "experimentelle Didaktik", in der er versuchte, psychologische Experimente für Probleme des Unterrichts, wie z.B. Fragen des Anschauungsunterrichtes, zu nutzen.
    Gemeinsam ist allen Pädagogen dieser Zeit die Kritik an der traditionellen normativen Pädagogik, der fehlende empirische Absicherung vorgeworfen wird.
     
    Das ist nun, was der herkömmlichen Pädagogik, die als Begriffs- und Normenwissenschaft auftritt, zum Vorwurf gemacht werden muss: es fehlt ihr der empirische Unterbau an Kenntnis der rein tatsächlichen Verhältnisse, auf welchen alle pädagogischen Vorschriften und Normen aufgebaut werden müssen ... Andererseits treten alle Vorschriften, denen die zureichende empirische Begründung fehlt, dem Praktiker als reine Gebote entgegen und sind nicht imstande, ihm zugleich jeden Augenblick und bei jedem Schritt vor Augen zu halten, warum er so und nicht anders handeln muss (MEUMANN 1916, Vorlesungen zur Einführung in die experimentelle Pädagogik)
    Ziel ist es, mit dem Rückgriff auf die Erziehungswirklichkeit Erziehungswissenschaft auf eine sichere Grundlage zu stellen und objektive Ergebnisse zu erzielen. Daraus ergeben sich folgende Hauptthesen für diese Frühphase der empirischen Erziehungswissenschaft:
     
    Basis der Erziehungswissenschaft sind die "pädagogischen Tatsachen".
    Die Erfassung von Tatsachen geschieht nicht auf der Basis mehr oder weniger zufälliger Erfahrungen, sondern mit Hilfe von Beobachtung und Experiment.
    Alte und neue Pädagogik unterscheiden sich vor allen Dingen in der Art und Weise, wie sie Erfahrungen machen, wie sie forschen. Die alte Pädagogik geht auf Wahrnehmungen, Selbstbeobachtung und Fremdbeobachtung zurück, die sich aber als nicht genügend erwiesen haben. Die experimentelle Pädagogik ergänzt und vertieft daher die alte Forschungsweise durch umsichtige Beobachtung, Statistik und Experiment (LAY 1912, Experimentelle Pädagogik)
     
    Aus einzelnen Beobachtungen wird auf generelle Gesetze geschlossen.
    Strittig ist, in wie weit die empirische Erziehungswissenschaft zugleich Normen für das praktische Handeln aufstellen kann.
    Für LAY und MEUMANN bleibt die experimentelle Pädagogik letztlich eine normative Disziplin, die Anweisungen für das praktische Handeln aufstellt. Hinter ihrer Position steht die Vorstellung, dass die Kenntnis von Gesetzmäßigkeiten pädagogischen Handelns so etwas wie eine natürliche Erziehung ermöglicht, die gemäß diesen Gesetzen erfolgt. MEUMANN sieht in der experimentellen Forschung eine objektive Instanz, ... die frei von den politischen, sozialen und religiösen Nebeneinflüssen im Geiste reiner Wahrheitsforschung das Zweckmäßige, Wertvolle und Brauchbare in den "modernen Ideen" der Erziehungsreform zu scheiden sucht von dem Unzweckmäßigen und Wertlosen
     
    2.2.4.2 Der Kritische Rationalismus in der Erziehungswissenschaft
     
    Grundlegend für das Werk von BRENZIKA, einem der Hauptvertreter einer kritisch-rationalen Erziehungswissenschaft, ist die analytische Trennung der drei Bereiche: a) Praktische Pädagogik, b) Erziehungswissenschaft und c) Philosophie der Erziehung. Die Klärung von Problemen der Erziehungspraxis wird dabei in den außerwissenschaftlichen Bereich der praktischen Pädagogik verwiesen. Ziel einer kritisch-rationalen Erziehungswissenschaft ist es hingegen, zu erklären, zu prognostizieren und Technologien für das Erreichen von bestimmten Erziehungszielen bereitzustellen. Gegenstand der Erziehungsphilosophie schließlich ist die Klärung normativer Aspekte von Erziehung und Erziehungswissenschaft.
     
    Empirische Theorien sind nicht wissenschaftlicher Selbstzweck, sonder zielen ... auf die Erklärung der Realität als exakte Begründung der Existenz bestimmter einzelner Ereignisse und ganzer Ereigniskomplexe. Mit dieser Grundleitung der empirischen Theorie ist zugleich die Möglichkeit gegeben, die Folgen bestimmter Gegebenheiten und Ereignisse vorherzusagen: Prognosen und nachzuweisen, was getan werden kann, um bestimmte Ziele zu erreichen: Technologien...Prognose und Technologie haben die gleiche logische Struktur wie die Erklärung. Als Anwendungsformen theoretischen Wissens unterscheiden sie sich voneinander lediglich durch den nach praktischen Gesichtspunkten je unterschiedlich gewählten Ausgangspunkten der Ableitungskette (BREZINKA 1971, Von der Pädagogik zur Erziehungswissenschaft).
    Die Praktische Pädagogik hingegen ist, von ihren eigenen Zielsetzungen her, ausschließlich an einem erfolgsorientierten Handeln von ErzieherInnen, LehrerInnen etc. interessiert. Die Erziehungsphilosophie beschäftigt sich mit normativen Fragen, hier insbesondere der Erörterung der Zwecke bzw. Ziele von Erziehung und mit erkenntnistheoretischen Problemstellungen.
    BREZINKAS Position beruht auf 5 Hauptthesen:
     
    Erziehungswissenschaft distanziert sicht von traditionellen normativen Ansätzen der Pädagogik, deren fehlende Absicherung kritisiert wird:
    Es mangelt [in der Erziehungswissenschaft] an Informationen über die Erziehungswirklichkeit, aber an deren Stelle sind "Wesensbestimmungen", Werturteile und Normen, Glaubensbekenntnisse, politische Programme und Handlungsappelle im Überfluss vorhanden (BREZINKA 1971, Von der Pädagogik zur Erziehungswissenschaft).
     
    Erziehungswissenschaft wird definiert als System von generellen Aussagen über die Erziehungswirklichkeit.
    ... als "Erziehungswissenschaft" werden Aussagesysteme bezeichnet, die in intersubjektiv nachprüfbaren Sätzen über den Wirklichkeitsbereich (Objektbereich) "Erziehung" informieren.
     
    Generelle Gesetzesaussagen können in Erklärungen, Prognosen und Technologien für praktisches Handeln transformiert werden.
    Wenn wir die Zukunft unserer Gesellschaft und unserer Kinder nicht dem Zufall und bloßem Gutdünken ausliefern wollen, dann muss auch die Erziehung möglichst rational geplant und durchgeführt werden. Wir müssen wissen, ob und unter welchen Bedingungen die erzieherischen Handlungen und Einrichtungen den Zwecken gemäß sind, um derentwillen sie überhaupt geschehen bzw. da sind. Das lässt sich nur durch empirische Forschung erfahren und in wissenschaftlichen Theorien ausdrücken (BREZINKA 1971, Von der Pädagogik zur Erziehungswissenschaft.
     
    Im Blick auf die intersubjektive Überprüfbarkeit erziehungswissenschaftliche Aussagen muss Erziehungswissenschaft wertfrei sein.
    Aus der Forderung nach intersubjektiver Prüfbarkeit wissenschaftlicher Aussagen ergeben sich noch vor jeder Festlegung von Forschungstechniken und von Methoden der Prüfung bestimmte Anforderungen an Sprache der Wissenschaft. Von den verschiedenen Zwecken, denen Sprache dienen kann, kommt für die wissenschaftliche Erkenntnis nur einer in Betracht: die Darstellung von Gegenständen und Sachverhalten. Von Formulierungen, die den Ausdruck eigener Gefühle ... bezwecken, müssen wissenschaftliche Theorien freigehalten werden. In ihnen ist nur der deskriptive (beschreibende und interpretierende) Sprachgebrauch zulässig, während der präskriptive (verschreibende) und der emotive (gefühlsansprechende) ausgeschlossen bleiben soll (BREZINKA 1971, Von der Pädagogik zur Erziehungswissenschaft.
     
    Neben die Erziehungswissenschaft wird eine "praktische Pädagogik" gestellt, die ein System von Empfehlungen für das praktische Handeln in der pädagogischen Praxis darstellt, aber selbst keine Wissenschaft ist.
    Die praktische Fragestellung lautet: was soll erzieherisch getan werden? Welche Ziele sollen die Erzieher verfolgen? Wie sollen Sie handeln, damit diese Ziele erreicht werden? Hier wird nach Anweisungen für die Gestaltung der Erziehungspraxis gefragt... Die der praktischen Betrachtungsweise entsprechenden Gedankensysteme enthalten neben empirischen und logischen Behauptungssätzen auch Werturteile und normative Festsetzungen. Sie zeichnen bestimmte Phänomene als gut oder schlecht, erwünscht oder unerwünscht aus; sie empfehlen bestimmte Stellungnahmen oder Handlungen und lehnen andere ab. Die entsprechenden Sätze sind präskriptiver Art (BREZINKA 1971, Von der Pädagogik zur Erziehungswissenschaft.
     
     
    2.3 Der hermeneutische Ansatz
    2.3.1 Allgemeines
    In der Tradition der empirischen Wissenschaft versucht man die Wissenschaftlichkeit der Erziehungs- bzw. Sozialwissenschaft durch Orientierung an der Naturwissenschaft zu sichern. Eine Alternative dazu besteht darin, für die Wissenschaften vom Menschen eine eigene wissenschaftstheoretische Grundlegung zu schaffen. Dies ist der Ansatz der Hermeneutik, die die Erziehungswissenschaft als eine "verstehende" Wissenschaft konzipiert.
    Innerhalb der hermeneutischen Begründung der Sozialwissenschaft lassen sich verschiedene Hauptrichtungen unterscheiden:
    die Begründung der Hermeneutik durch Wilhelm Dilthey zu Beginn des letzten Jahrhunderts,
    die Hermeneutik in der Geisteswissenschaftlichen Pädagogik,
    die Kritische Theorie und Kritische Erziehungswissenschaft, die sich selbst in Gegensatz zur Geisteswissenschaftlichen Pädagogik sah, aber in ihrem forschungsmethodischen Kern eine hermeneutische Disziplin bleibt,
    und schließlich die Phase der Qualitativen Forschung, wie sie sich seit den 80er Jahren etabliert hat.
    Die programmatische Unterscheidung von Naturgegebenheiten und sozialen Prozessen als genuin unterschiedliche Gegenstandsbereiche einer wissenschaftlichen Betätigung kann als allgemeinster Unterschied zwischen empirisch-analytischem und hermeneutischem Ansatz gesehen werden. Die prinzipielle Besonderheit des Objektbereiches der (Geistes-) oder Sozialwissenschaften liege darin, dass Naturdinge dem Menschen, äußerlich, invariant und selbst vom Erkenntnisprozess durch den Menschen nicht unmittelbar berührt sind, soziale Prozesse aber selbst geschaffen, damit (nach
     
    Hermeneutik: Lehre von der Auslegung von Texten sowie nicht-sprachlicher Kulturäußerungen. Unter vielen Spielarten der H. lassen sich zwei Gruppen bilden: H. als Kunstlehre, als Auslegungsmethode in den Geisteswissenschaften und andererseits die philosophische H. In unterschiedlichem Maße werden dabei u.a. die folgenden Punkte als Aufgabe von H. gesehen: a) interpretative Klärung von Grundbegriffen; b) Verstehen eines Textes und seiner Bedeutung aus seiner Zeit heraus, unter Berücksichtigung von Situation, Motivation und Intension seines Verfassers ... d) Offenlegung des Sinns, den ein Text für den Interpreten und seine Zeit hat (Lexikon der Soziologie).
    Intentionen) variabel und veränderbar sind. Welt kann daher in der Philosophie immer nur "interpretiert" und "verstanden" und nicht bloß äußerlich "erkannt" werden. Diese These des Methdodendualismus, wie sie für die hermeneutische Position kennzeichnend ist, findet sich historisch betrachtet schon bei J.ST. MILL, der zwischen "natural-sciences" und "moral-sciences" unterscheidet. Die letzten beziehen sich auf die spezielle menschliche Natur als "Geistwesen", sind also - mit einem modernen Begriff ausgedrückt - "anthropologische Wissenschaften". Das folgende Zitat soll das hier gemeinte verdeutlichen:
     
    "Da die Phänomene, womit sich diese Wissenschaft befaßt, die Gedanken, die Gefühle und die Handlungen menschlicher Wesen sind, so würde sie die ideale Vollkommenheit einer Wissenschaft erreicht haben, wenn sie uns in den Stand setzte, mit derselben Gewissheit vorauszusagen, wie ein Individuum sein ganzes Leben hindurch denken, fühlen und handeln wird, womit die Astronomie uns erlaubt, den Ort und die Verfinsterung der Himmelskörper vorauszusagen. Es ist kaum nötig zu sagen, dass dies nicht einmal annäherungsweise geschehen kann."
     
    Introspektion: Selbstbeobachtung, Aussagen der untersuchten Person oder des Forschers über eigene Erlebnisse, Handlungen, "Seelische" Vorgänge, die u.a. in der Denk- und Wahrnehmungspsychologie als Untersuchungsmaterial herangezogen werden (Lexikon der Soziologie).
    Diese Unterscheidung ist bedingt durch die Eigenheit des Objektbereiches bzw. der Phänomene dieser "moral-sciences", weil ihre Aussagen gegenüber den Naturwissenschaften weder die gleiche Gewissheit besitzen, noch Prognosen in gleicher Weise möglich machen wie in den Naturwissenschaften. Grundsätzlich werden also Unterschiede bezüglich Erkenntnisvoraussetzungen, Erkenntnisverfahren und Erkenntniszielen von der hermeneutischen Position geltend gemacht.
     
    a) Bezüglich der Erkenntnisvoraussetzungen wird geltend gemacht, dass es einen prinzipiellen Unterschied mache, ob der Erkennende selbst Teil des Objektbereiches sei oder nicht. Es bestehe dabei die Chance, nicht bloß äußerlich zu erkennen, sondern gleichsam aus der Teilnahme heraus den vollen Sachverhalt zu erleben.
    b) Als einzige mögliche und angemessene Erkenntnisverfahren verbleiben so auch nur Methoden der intuitiven und introspektiven (wenn auch intersubjektiv abzusichernden) Einfühlung und Interpretation, mit allen sich daraus ergebenden Besonderheiten, wie dem Verzicht auf Erklärung durch universale Gesetzte. Intentionen können nur verstehend nachvollzogen, nicht aber kausal erklärt werden. Daher müsse an die Stelle der kausalen Erklärung ("warum") die teleologische Erklärung ("wozu") treten. Eine Erklärung nach universellen Gesetzen sei überdies für die Sozialwissenschaften nicht nur inadäquat, sondern unmöglich, weil Soziales sich ständig wandle, niemals Identisches aufweise.
    c) Weder sie Suche nach universalen Gesetzen noch die Kumulation kognitiver Aussagen und empirisch wahrer Theorie liegt im Erkenntnisinteresse, sondern die Begründung einer normativ anweisenden Geschichtsteleologie, der Entwurf des "Guten" und die Vorstellung von anderen "Lebensmöglichkeiten" gegen das historisch gewordene und als Besseres Denkbare sind das Ziel.
     
    2.3.2 Wilhelm Dilthey
     
    Die Übersetzung des MILLschen Terminus der "moral-sciences" in Geisteswissenschaften erfolgte im 19. Jahrhundert auf dem Hintergrund des Geistbegriffs des deutschen Idealismus, der dadurch auszeichnet, das eigentlich "Wirkliche" in Ideen, im Denken zu sehen, und die uns umgebende Wirklichkeit in ihrem Wesen für nicht erfassbar und nicht erkennbar zu halten. Alle idealistischen Erkenntnisbegriffe laufen daraus hinaus, die Erkenntnis von ihrem wirklichen Gegenstand, der objektiven Realität zu trennen.
     
    Teleologie: Auffassung, nach der Ereignisse oder Entwicklungen durch bestimmte Zwecke oder ideale Endzustände vorherbestimmt sind und sich auf diese zubewegen. Die T. erklärt ein Ereignis nicht kausal, sondern final, d.h. durch Angabe von der Zukunft liegenden Zwecken ("Dies geschieht damit ...") Die Zwecke oder idealen Zielzustände sind dabei entweder von außen vorgegeben (göttlicher Wille) oder werden als im Wesen der Natur liegend angesehen ("Alle Dinge streben nach Vollendung") (Lexikon der Soziologie).
    Auf Basis dieses Geistbegriffes entwickelte DILTHEY sein Programm einer Geisteswissenschaft. Sie ist eine Wissenschaft, die vorrangig nicht auf Gesetzmäßigkeiten, sondern in erster Linie auf historische Einmaligkeit gerichtet ist, und beruht auf der Annahme, dass menschliche Handlungen nicht notwendiger Weise in einem Ursache-Wirkungszusammenhang stehen und deshalb dem naturwissenschaftlichen Erklären nicht zugänglich ist, sondern nur dem geisteswissenschaftlichen Verstehen. DILTHEY suchte nach einer Krise der Philosophie in der zweiten Hälfte des 19. Jahrhundert für diese einen neuen Ansatz. Eine Ursache für die Krise sah er im systematischen Denken der Philosophie: In den Adern des erkennenden Subjektes, das KANT, LOCKE und HUME konstruierten, rinnt nicht wirkliches Blut, sondern der verdünnte Saft von Vernunft als reiner Denktätigkeit. Eine Philosophie, die nur von der rationalen Erkenntnis allein ausgeht, übersieht den ganzen Menschen in der Fülle seiner Bezüge, den denkenden, wollenden, fühlenden und handelnden Menschen. Fühlen, Wollen und Handeln werden nicht nur aus der ratio gespeist. Der Grundsatz meiner Philosophie besteht darin, schreibt DILTHEY, dass bisher noch niemals der ganze Mensch und das ganze Leben, mithin noch niemals die ganze und volle Erfahrung zum Ausgangspunkt des Philosophierens gemacht worden sind. (DILTHEY 1960, Gesammelte Schriften)
    Wissenschaftlich stellte sich für DILTHEY das Problem, diese Fülle des Lebens zu erfassen. Er vertrat die Meinung, dass mit Begriffen und Definitionen, wie es die herkömmliche Philosophie versucht hatte, dieses Problem nicht zu lösen sei. Es bleibe immer wieder ein unauslösbarer Gegensatz zwischen Begriff und der mit dem Begriff gemeinten Wirklichkeit. In der Hermeneutik sah DILTHEY die methodologische Strategie zur Lösung dieses Problems. Er wollte sie zu einer wissenschaftlich fundierten Technik entwickeln, wobei er an Schleiermacher anknüpfte, der die Kunst der Hermeneutik bei der Textauslegung entwickelt hatte als eine philosophische Arbeitsweise.
     
    Hermeneutik als Auslegung (Verständnis, Interpretation) bezieht sich bei Schleiermacher in erster Linie auf die Auslegung von Texten. Die Wortgeschichte geht auf das Griechische zurück und ist umstritten. Ob sie in Zusammenhang mit Hermes, dem Götterboten gebracht wird, dem in der griechischen Mythologie die Erfindung der Sprache zugeordnet wird, oder ob einfach von der griechischen Verbalbedeutung (griech. Hermeneuein = sprechen, sagen) ausgegangen wird, immer hat Hermeneutik einen Bezug zur Sprache als gesprochene oder geschriebene Sprache und damit zur Sprache als Ausdruck. Darin kann auch die Grundbedeutung des Begriffes in auslegen, aussagen, übersetzten gesehen werden.
     
    Verstehen: in der Soziologie Erklärung eines tatsächlichen Handlungsablaufs durch deutende Erfassung des Sinnzusammenhanges, in den, seinem subjektiv gemeinten Sinn nach, ein aktuell verständliches Handeln hineingehört (Lexikon der Soziologie).
    Verstehen als die Methode der Hermeneutik bildet für DILTHEY jenen Vorgang, "in welchem wir aus Zeichen, die von außen sinnlich gegeben sind, ein Inneres erkennen". Verstehen bleibt die Herausstellung des zugrunde gelegten Sinnes und damit die Aneignung des im Sprachausdruck enthaltenen Inhalts. Beispiele zur Verdeutlichung: Auch im Alltag sprechen wir von Zeichen, so etwa bei Verkehrszeichen. Ein bestimmtes nimmt man durch Anschauen wahr: Rund, weiß und roter Rand; diese ist das Äußere des Zeichens. Sein Inneres besteht in seiner Bedeutung: Auf einer so gekennzeichneten Straße darf nicht gefahren werden. Das Verstehen beruht also in dem Erkennen der Bedeutung des Verkehrszeichen.
    Fasst man die zentralen Aspekte des Ansatzes von DILTHEY zusammen ergeben sich folgende Hauptthesen:
     
    Gegenstand des Ansatzes von DILTHEY sind Geisteswissenschaften. DILTHEY faßt unter diesem Begriff alle Wissenschaften zusammen, die sich auf den Menschen beziehen. Neben den Naturwissenschaften hat sich eine Gruppe von Erkenntnissen entwickelt, naturwüchsig aus den Aufgaben des Lebens selber, welche durch die Verwandtschaft und durch gegenseitige Begründung miteinander verbunden sind. Geschichte, Nationalökonomie, Rechts- und Staatswissenschaften, Religionswissenschaft, das Studium von Literatur und Dichtung, von Kunst und Musik, philosophischer Weltanschauung, als Theorie und als Erkenntnis des historischen Verlaufs sind solche Wissenschaften ...Alle diese Wissenschaften beziehen sich auf die Menschen, ihre Verhältnisse zueinander und zur äußeren Natur (DILTHEY 1958, Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften).
     
    Für diese Geisteswissenschaften sind die naturwissenschaftlichen Vorgehensweisen ungeeignet, sie bedürfen daher einer eigenen wissenschaftstheoretischen Grundlegung. Der Grund liegt für DILTHEY darin, dass bei einer naturwissenschaftlichen Vorgehensweise verloren geht, was für menschliche Lebensäußerungen zentral ist: das menschliche Erleben, die Bedeutungshaftigkeit von Lebensäußerungen, die Sinnhaftigkeit menschlichen Handelns.
     
    Während es Aufgabe der Naturwissenschaft ist, Verhalten zu erklären, geht es in den Geisteswissenschaften darum, innere Zustände in ihrer Bedeutung zu verstehen. Dies ist in der Tradition der hermeneutischen Wissenschaften die zentrale Unterscheidung: Während die Naturwissenschaften auf Basis von Gesetzmäßigkeiten Erklärungen liefen, ist es Aufgabe von Geisteswissenschaften menschliches Seelenleben zu verstehen, aus äußeren Zeichen ein Inneres zu erkennen: z.B. aus dem Verhalten eines Kindes seine Gedanken und Absichten zu erschließen oder die Bedeutung eines Textes zu interpretieren.
     
    Die methodische Eigenständigkeit der Geisteswissenschaften erfordert eigene, hermeneutische Methoden. Verstehen ist kein naturwissenschaftlicher Vorgang, sondern erwächst aus Interessen des praktischen Lebens (DILTHEY). Allerdings ist es als Bestandteil des eigentlichen Lebens häufig unzuverlässig: Ich kann mich irren, wenn ich die Bedeutung einer Handlung oder den Sinn eines Textes zu erfassen suche. Hier beginnt die Aufgabe der Hermeneutik (= Lehre vom Verstehen). Sie ist für DILTHEY die Methode der Geisteswissenschaften insgesamt; Hermeneutik ist die wissenschaftliche Methode zur Erfassung von Bedeutungen. Sie wird von DILTHEY als das "Wiederfinden des Ich im Du" beschrieben. Möglich wird dieses Wiederfinden nach DILTHEY aufgrund der Tatsache, dass es bei aller Unterschiedlichkeit zwischen Menschen doch eine Reihe von Gemeinsamkeiten in der biologischen Ausstattung und in den Grunderfahrungen gibt, die es erlauben, Vermutungen darüber anzustellen, was die Bedeutung von bestimmten Situationen, Ereignissen und Handlungen ist. Wir können die Bedeutung des Spiels für ein Kind erfassen, weil wir als Kinder selbst gespielt haben. Allgemein formuliert, sind Handlungen und soziale Tatsachen in ihrer Bedeutung erschließbar, weil wir uns in sie hineinversetzen und sie nacherleben können.
     
    Aufgabe der Pädagogik ist zunächst das Verstehen der Erziehungswirklichkeit. Die Wissenschaft der Pädagogik ... kann nur beginnen mit der Deskription des Erziehers in seinem Verhältnis zum Zögling. Dabei können Gegenstand der Pädagogik grundsätzlich sowohl Situationen der pädagogischen Praxis als auch pädagogische Texte sein. Aufgabe der Pädagogik ist es, nach der Bedeutung der jeweiligen Handlungen, Texte, Dokumente oder Lebensäußerungen zu fragen. Der folgende Text enthält eine Reihe von hermeneutischen Aussagen, in denen die Bedeutung des Spiels für das Kind geklärt wird. Sie sind aufgefordert, sie zu finden.
    Spiel und Arbeit sind beide der Ruhe oder dem bloßen passiven Aufnehmen entgegengesetzt als Weisen von Selbsttätigkeit. Aber während die Arbeit ein außerhalb dieser Tätigkeit liegendes, reeles, d.h. in die Bedürfnisse des Lebens eingreifendes Ergebnis anstrebt, auch mit Überwindung, hat das Spiel seine Befriedigung in der Tätigkeit selber. Das Kind macht noch keinen Kraftaufwand, der die realen Bedürfnisse durch zwischenliegende Akte von Arbeit in der Zukunft zu befriedigen verspricht. Ernst, Arbeit kennt es zunächst nicht. Es spielt. Der Zusammenhang des Spiels setzt sich aus Akten und Zuständen fröhlichen Genusses, der Lust, zusammen. Aber im Spiel wird der Zusammenhang ausgebildet, welcher als Fortgang von Vorstellungen durch angeregte Gefühle zu Willenshandlungen im Ernst des Lebens und der Arbeit dann wirksam wird. Das Seelenleben des Kindes vermag sich nur erst im Spiel und seinen Fiktionen auszuatmen. Im Spiel wird die Gesundheit der Kinderseele durch solche freie Betätigung erhalten (DILTHEY 1960, Gesammelte Werke).
     
    Aus dem Verstehen der Erziehungswirklichkeit lassen sich situationsvariante (für besondere Situationen gültige) Normen gewinnen. der vorangegangene Text über das Spiel zeigt diesen Übergang von hermeneutischen Aussagen zu normativen Anweisungen für die Erziehungspraxis deutlich. Es heißt hier: Es ist die erste Regel der Erziehung: das Spiel ist für das Kindesleben eine notwendige Funktion, Unterstützung desselben durch den Erzieher darf nur die im Kinde angelegte Art der Vorgänge fördern und die Freiheit nicht einschränken. Wenn die Wahrnehmungsspiele die Bilder der Gegenstände entwickeln, wenn die Phantasiespiele das innere eigentümliche Leben des Kindes ausbilden, wenn die Übungsspiele Gesundheit, Stärke des Körpers und Moralität stärken und heben: so ist solcher einzelner Nutzen überall zu pflegen, aber der eigentlichen Funktion desselben einzuordnen (DILTHEY 1960, Gesammelte Werke).
    Hier werden ganz konkrete Anweisung für das praktische Handeln aufgestellt. Der/die ErzieherIn darf die Freiheit im Spiel nicht einschränken! Wenn die Übungsspiele Gesundheit, Stärke des Körpers und Moralität stärken und heben, so ist solcher Nutzen zu pflegen!
    Begründet werden solche Normen bei DILTHEY durch die sogenannte "Strukturlehre", nämlich durch die These, dass Prozesse im psychischen Bereich grundsätzlich teleologisch verlaufen, das heißt auf bestimmte Ziele hin ausgerichtet sind. DILTHEY glaubt, diesen teleologischen Strukturzusammenhang bei allen Lebewesen, bei der Entwicklung des einzelnen Menschen und auch in der Geschichte von sozialen und kulturellen Systemen wieder finden zu können. Überall verläuft die Entwicklung letztlich in Richtung auf Entfaltung und Steigerung. Wenn man also davon ausgeht, dass Entwicklung grundsätzlich in Richtung einer höheren Vollkommenheit verläuft, dann so DILTHEY, lassen sich aus der Interpretation der gegenwärtigen Situation Maßgaben gewinnen, die die Entwicklung zur Vervollkommnung unterstützen. DILTHEY spricht in diesem Zusammenhang vom "Fundamentalsatz" der Pädagogik": Das Seelenleben hat eine innere Zweckmäßigkeit, sonach eine ihm eigene Vollkommenheit. Folgerecht können Normen dieser Vollkommenheit gegebenen, Regeln, wie sie durch die Erziehung herzustellen sein, entworfen werden erhalten (DILTHEY 1960, Gesammelte Werke).
    Aufgabe der Pädagogik als Wissenschaft ist es nach DILTHEY, die Prinzipien zu ermitteln, nach denen sich dieser Prozess der Vervollkommnung in der Entwicklung des Kindes vollzieht.
     
    2.3.3 Die Kritische Theorie
    2.3.3.1 Allgemeines
     
    Entstehung und Entwicklung der Kritischen Theorie sind eng mit der Geschichte des 1923 gegründeten Institutes für Sozialforschung in Frankfurt am Main verknüpft. Das Institut, das seit 1932 die Zeitschrift für Sozialforschung herausgibt, versteht sich als eine interdisziplinäre Einrichtung zur Erforschung von Gesellschaft und ihrer Entwicklung, in der Philosophen, Pädagogen, Psychologen und Ökonomen zusammenarbeiten. 1933 zwangsweise geschlossen, wurde das Institut zunächst nach New York verlegt und 1950 in Frankfurt wieder eröffnet. Einflussreich für die Entwicklung der Kritischen Theorie waren in der ersten Generation Max HORKHEIMER und Theodor ADORNO sowie Herbert MARCUSE und Erich FROMM, in der zweiten Generation Jürgen HABERMAS, Klaus OFFE und Oskar NEGT u.a. Die Frankfurter Schule versuchte zunächst die Gesellschaftstheorie von Karl Marx philosophisch, historisch und psychoanalytisch neu zu interpretieren. Durch den Nationalsozialismus kam es in Deutschland erst sehr spät, nämlich ab ca. 1961 zu einer intensiven wissenschaftstheoretischen Diskussion zwischen Vertretern der Frankfurter Schule mit Vertretern des Neopositivismus.
     
    Exkurs: Die Marxistische Theorie

    In der Marxschen Theorie spielt die Zielfrage eine ganz entscheidende Rolle. Es kommt ihm nicht nur darauf an, die Welt zu interpretieren, sondern Gesellschaft zu verändern. Von zentraler Bedeutung in der marxschen Philosophie erscheint der Ideologiebegriff, der im folgenden verdeutlicht werden soll.

    Für MARX besteht ein direktes und zwingendes Abhängigkeitsverhältnis zwischen der Art, wie Menschen ihre materiellen Bedürfnisse befriedigen, das heißt zwischen der gesellschaftlichen Arbeit, und den Instrumenten (Produktionsmittel), die sie dazu benötigen, den Verhältnissen (Arbeits- und Produktionsverhältnissen), die sie zur Bewältigung der Arbeit eingehen und den gesellschaftlichen Institutionen, Gesetzen etc., die die Menschen errichten.

    Den ersten Bereich dieser Verhältnisse (Produktion, Produktionsmittel und Produktionsverhältnisse) bezeichnet MARX als ökonomische Basis. Die gesellschaftlichen Einrichtungen bilden den ideologischen Überbau. Die Gesamtheit der Produktionsverhältnisse bildet die ökonomische Struktur einer Gesellschaft, die reale Basis, worauf sich ein politischer Überbau erhebt, welchem bestimmte gesellschaftliche Bewusstseinsformen entsprechen. Es ist nicht das Bewusstsein der Menschen, das ihr Sein, sondern umgekehrt ihr gesellschaftliches Sein, das ihr Bewusstsein bestimmt. Dieses "gesellschaftliche Bewusstsein" ändert sich erst, wenn sich die ökonomische Basis ändert. Die Ideologie, das gesellschaftliche Bewusstsein, der Überbau bringt in einer kapitalistischen Gesellschaft stets die Gedanken der herrschenden Klasse zum Ausdruck, das heißt jener Klasse, die über die Produktionsmittel verfügt und in der Lage ist die Produktionsverhältnisse zu bestimmen.

    Untrennbar verbunden mit seiner Analyse ist die Frage nach der Veränderung gesellschaftlicher Strukturen, das heißt die Frage nach der Realisierbarkeit einer Gesellschaft, in der die Herrschaft von Menschen über Menschen abgeschafft ist. In diesem Veränderungsprozess erhält Erziehung, als ein Teil des ideologischen Überbaues, eine zentrale Funktion. Veränderung im Bereich der Wissenschaft und Bildung beginnt immer mit Ideologiekritik, mit dem Erkennen und Herausarbeiten von gesellschaftlichen Widersprüchen. In dieser Hinsicht ist Wissenschaft nie objektiv, sondern immer parteilich und steht auf der Seite der Besitzlosen.
    Im sogenannten Positivismusstreit zwischen den Vertretern dieser beiden Ansätze, versuchte die Frankfurter Schule herauszustellen, dass jeder Theoriebildung immer schon ein Erkenntnisinteresse vorausgeht und dass Theorien von Herrschaftsinteressen durchsetzt seien. Den Neopositivisten wurde eine verschleiert normative Funktion vorgeworfen. Der Forscher sei stets Teil der Gesellschaft und könne sich nicht außerhalb seiner selbst stellen. Er müsse sein Verhältnis zu Gesellschaft, Forschung und Wissenschaft mitreflektieren. Ausgehend von Marx verwies u.a. HORKHEIMER bezüglich der herkömmlichen Theorieansätze darauf, dass wissenschaftliche Theorien ja nicht im luftleeren Raum zustande kommen und unabhängig von allen geschichtlichen und gesellschaftlichen Bedingungen seien. Theorie sei also kein Produkt willkürlicher Setzungen von Individuen. "Die Beziehung von Hypothesen auf Tatsachen vollzieht sich schließlich nicht im Kopf von Gelehrten, sondern in der Industrie" (HORKHEIMER 1970).
    Die kritische Theorie stellt eine Art Metatheorie (= Theorie der Theorie) dar, die einmal in ideologiekritischer Absicht, andere theoretische Ansätze kritisiert, aber auch zugleich bestehende gesellschaftliche Verhältnisse verändern will. Sie ist also Metatheorie, weil sie die Gründe und Begründungen anderer Theorien in einem gesellschaftlich-historischen Kontext zu erklären versucht. Bei der Absicht zur Veränderung geht sie nicht von wissenschaftlichen Hypothesen aus, sondern von gesellschaftlichen Widersprüchen, will diese keineswegs aber nur erklären sondern auch verändern. Als Motor dieser Veränderung dient die Kraft der kritischen Analyse und Reflexion. Ansatzpunkt dieses Reflexionsprozesses stellt die Analyse des eigenen Tuns der Wissenschaft dar. Der Klärung der Frage z.B.: Warum Wissenschaft als Vermittlerin von Wissen nicht mehr Aufklärung und Befreiung bewirkt, sondern auch Abhängigkeit und Einengung des Menschen unter Sachzwang und Sachgesetzlichkeit.
    Schon sehr früh haben die Vertreter der Frankfurter Schule herausgestellt, dass auch Wissenschaft einen ambivalenten Charakter trägt. Zwar hat Wissenschaft zunächst die Befreiung des Menschen von blinden Naturgewalten gebracht, aber auch Technologien erzeugt, mit ihnen einen arbeitsteiligen Produktionsprozess und in ihm den Menschen in neue Abhängigkeiten geführt. ADORNO und HORKHEIMER nennen diesen doppeldeutigen Prozess "Dialektik der Aufklärung" und meinen damit die grundsätzliche Möglichkeit des Scheiterns und Umschlagens von Emanzipationsprozessen. So schlägt Aufklärung über Entfremdung um in neue Entfremdung.
    Bei ADORNO, dem typischsten Vertreter der Kritischen Theorie, wird die Kritische Theorie als Theorie konzipiert, die sich radikal gegen alles Selbstverständliche, Starre, unveränderbar Scheinende wendet: als Negation alles bestehenden, als Negative Dialektik. Begründet wird dies mit der Absicht, eine Theorie zu entwerfen, in der die in der instrumentellen Vernunft zerfallene Fortschrittsidee - Fortschritt gedacht als Herausbildung einer totalen Vernunft - wieder begründet werden soll. Nach ADORNO sei alle Theorie und alle Geschichte, die einmal im Namen der Selbstbefreiung des Menschen von den Fesseln der Natur begonnen habe, in eine totale Herrschaft gemündet. Dieses - von der "Ursünde" des Herrschaftsaspektes der instrumentellen Vernunft her unausweichliches - Scheitern jeder Emanzipationsidee im Namen der Vernunft habe in Ausschwitz und in der Verdinglichung der Gegenwart seinen unübersehbaren Nachweis gefunden: Der Fortschritt in der Gegenwart ist in das Gegenteil seiner selbst umgeschlagen. Die Wurzel aller Herrschaft ist die Vernunft, die Befreiung des Menschen aus der Beherrschung der Natur hat in eine total Beherrschung des Menschen gemündet.
    Hier setzt die Negative Dialektik an als Versuch, die Geschichte nicht als bloßen Ablauf zu begreifen, sondern als Hintergrund für eine Utopie, in der das Prinzip Herrschaft nicht gilt. Theorie hat die Aufgabe, die faktische Irrationalität der Geschichte darauf zu hinterfragen, wie Geschichte auch hätte anders werden können. Die Rettung der Idee einer totalen Vernunft erfolgte aus der Einsicht in die Nicht-Notwendigkeit der Geschichte und die Nicht-Notwendigkeit ihrer Irrationalität.
    Zusammenfassend charakterisieren die folgenden Hauptthesen den Ansatz der Kritischen Theorie:
     
    Ausgangspunkt für die Kritische Theorie ist die These, dass Wissenschaft Teil der gesellschaftlichen Arbeit ist. Zahlreiche Schriften der Kritischen Theorie gehen der Frage nach, welche Rolle Gesellschaft und ihre Entwicklung für wissenschaftliche Erkenntnis haben und welche Rolle Wissenschaft für die gesellschaftliche Entwicklung übernehmen kann und soll. In Anlehnung an MARX wird die Frage zunächst so beantwortet, dass Wissenschaft Bestandteil gesellschaftlicher Arbeit ist, die Einfluss auf gesellschaftliche Verhältnisse hat. Kritische Theorie unterscheidet sich nach HORKHEIMER von traditioneller Theorie dadurch, dass sie den Entstehungs- und Verwertungszusammenhang von Wissenschaft reflektiert. Dem herkömmlichen theoretischen Denken gelten ... sowohl Genesis der Sachverhalte als auch die praktische Verwendung der Begriffssysteme, in die man sie befaßt, somit seine Rolle in der Praxis, als äußerlich. Diese Entfremdung, die in der philosophischen Terminologie als Trennung von Wert und Forschung, Wissen und Handeln sowie anderen Gegensätzen sich ausdrückt ... verleiht seiner Arbeit ihren festen Rahmen (HORKHEIMER 1988, Gesammelte Schriften).
     
    Ziel Kritischer Theorie ist es, durch Aufklärung über den gesellschaftlichen Entstehungszusammenhang sozialer Tatsachen zu einer Veränderung der gesellschaftlichen Verhältnisse beizutragen. Im Unterschied zur traditionellen Theorie, die soziale Tatsachen lediglich in der Regelhaftigkeit ihres Auftretens erfasse, geht es in der kritischen Theorie darum, soziale Tatsachen aus ihrem gesellschaftlichen Entstehungszusammenhang heraus zu erklären. Dazu sind die Regeln, Prozesse und Mechanismen zu untersuchen, durch die in einer Gesellschaft jeweilige soziale Tatsachen hervorgebracht werden. Die kritische Theorie der Gesellschaft hat ... den Menschen als den Produzenten der gesamten historischen Lebensform zum Gegenstand. Die Verhältnisse der Wirklichkeit, von denen die Wissenschaft ausgeht, erscheinen ihr nicht als Gegebenheiten, die bloß festzustellen und nach den Gesetzen der Wahrscheinlichkeit voraus zu berechnen wären. Was jeweils gegeben ist, hängt nicht allein von der Natur ab, sondern auch davon, was der Mensch über sie vermag (HORKHEIMER 1988, Gesammelte Schriften).
    Im Unterschied zur Ausklammerung des gesellschaftlichen Verwertungszusammenhangs wissenschaftlicher Erkenntnisse in der traditionellen Theorie, fordert die Kritische Theorie die Einbeziehung und Vorwegnahme des Verwertungszusammenhanges. Eine Theorie, die sich in ihren Untersuchungen von solchen Fragen leiten lässt, hat eine praktische Absicht, nämlich durch Aufklärung über den gesellschaftlichen Entstehungszusammenhang von Verhältnissen, die einer Selbstbestimmung entgegenstehen, zur Veränderung der gesellschaftlichen Verhältnisse beizutragen. Ziel dieser Aufklärung ist die Emanzipation, die Befreiung des Menschen von überflüssigen gesellschaftlichen Zwängen.
     
    Methodologische Grundlage der Kritischen Theorie ist "objektives Sinnverstehen".
    Objektive Hermeneutik ist darauf ausgerichtet, soziale Tatsachen von ihrem gesellschaftlichen Entstehungszusammenhang her zu verstehen. Objektives Verstehen meint in diesem Sinne, die sozialen, kulturellen, ökonomischen und politischen Hintergründe zu erfassen, die "im Rücken" der einzelnen Subjekte dazu führen, dass sie in einer bestimmten Weise denken und handeln. Im Unterschied zum Verstehen im Sinne von DILTHEY geht es also nicht darum, die Subjekte so zu verstehen, wie sie sich selbst verstehen, sondern vor dem Hintergrund der Regeln und Strukturen, durch die ihre Deutungsmuster und Handlungsweisen hervorgebracht werden. ADORNO beispielsweise nimmt Bezug auf (a) politische Verhältnisse und Entwicklungen wie ein "angriffslustiger Nationalismus" oder den Zerfall der etablierten Autoritäten des Kaiserreiches (b) weitverbreitete Einstellungen wie die Bereitschaft zu einer blinden Identifikation mit dem Kollektiv, die Einstellung, Menschen wie Dinge zu behandeln, Kälte gegenüber Mitmenschen und (c) weitverbreitete Erziehungskonzepte, wie die Erziehung zur Härte und Disziplin, zu Schmerz- und zu Angstlosigkeit, wenn es ihm darum geht Ausschwitz in einem solchen Sinne objektiv zu verstehen.
     
    2.3.3.1 Die Kritische Erziehungswissenschaft
     
    Seit Mitte der 60er Jahre wird versucht, Argumente aus der Kritischen Theorie für die Grundlegung der Erziehungswissenschaft aufzugreifen. Klaus MOLLENHAUER etwa beruft sich in seinem 1964 erschienen Aufsatz "Pädagogik und Rationalität" auf HABERMAS und proklamiert auf dieser Basis eine Erziehungswissenschaft, die auf Mündigkeit, Autonomie des Handelns und Befreiung von Dogmatismus ausgerichtet ist. Auf die Kritische Theorie wird dann später auch von Herwig BLANKERTZ, Wolfgang KLAFKI, Hermann GIESECKE und Wolfgang LEMPERT zurückgegriffen.
    Die kritische Erziehungswissenschaft wendet sich sowohl gegen normativ-geisteswissenschaftliche, wie empirisch-analytische Theorietradition. Erziehungswissenschaft wird unter die Sozialwissenschaft eingeordnet und verschiedene Einflüsse, die in die Erziehungswirklichkeit aus der Gesellschaft einfließen, werden herausgestellt und mitthematisiert. Jede Theorie der Erziehung, die Erziehung in einem gesellschaftlichen Schonraum ansiedelt und damit den für die Kritische Theorie relevanten politischen Einfluss ausklammert wird genau kritisiert wie die Ausklammerung des Konfliktes aus der Erziehung. Das Ziel dieser Richtung wird in der Emanzipation des Menschen gesehen. Pädagogik wird dabei als Handlungswissenschaft begriffen, in der die enge Verbindung von Theorie und Praxis konstituierend ist.
     
    Die Kritische Erziehungswissenschaft wendet sich sowohl gegen die empirische als auch gegen die geisteswissenschaftliche Tradition. Eine Erziehungstheorie, die entweder bei der Explikation dessen, was die Sache sein möchte - die Gefahr der traditionellen geisteswissenschaftlichen Pädagogik -, stehenbleibt oder sich mit der Analyse dessen, was sie ist - die Gefahr einer rein empirisch konzipierten Pädagogik-, begnügt, verfehlt damit den totalen Anspruch, den der Begriff der Rationalität enthält (MOLLENHAUER 1972, Theorien zum Erziehungsprozess). An der geisteswissenschaftlichen Pädagogik wird kritisiert, dass sie sich nicht kritisch gegen, "gesellschaftliche Bedingungen, Interessen und Herrschaftsansprüche" gewendet hat.
     
    Aufgabe einer Kritischen Erziehungswissenschaft ist es, die Abhängigkeit von Erziehung und gesellschaftlichen Prozessen aufzuzeigen. Hier greift die Kritische Erziehungswissenschaft ein Vorgehen auf, das die Kritische Theorie bei der Analyse von Wissenschaft zugrunde gelegt hat. Auf Erziehungswissenschaft bezogen bedeutet das, dass, wie Klaus MOLLENHAUER formuliert, der "gesellschaftliche Kontext "als "Basis der Erziehung" gilt: Der Erwachsene bleibt auch als Erziehender ein Erwachsener in einem bestimmten gesellschaftlichen Kontext. Er gibt seine Berufrolle nicht auf, wenn er Vater ist; er gibt seine Rolle als Interessensvertreter nicht auf, wenn er Lehrer ist; er gibt seine Abhängigkeit von seinem Anstellungsträger nicht auf, wenn er Heimerzieher ist; er gibt seine Zugehörigkeit zu einer bestimmten sozialen Gruppe, zu einer Klasse, seine ökonomischen, seine Macht- und Prestigeinteressen nicht auf, wenn er erzieht: Kurz: die Tatsache, dass er in einem durch Herrschaft strukturierten gesellschaftlichen Kontext lebt, kann er zwar verleugnen, er kann sie aber nicht abschaffen; jedenfalls nicht im Vollzug seines pädagogischen Handelns. Unter diesem Aspekt erscheint also der gesellschaftliche Kontext als die "Basis" der Erziehung, seine politischen Komponenten gehören somit auch zu den Basiskomponenten des Erziehungsvorganges (MOLLENHAUER 1972, Theorien zum Erziehungsprozess).
     
    Entsprechend der Kritischen Theorie ist auch für die Kritische Erziehungswissenschaft ein emanzipatorisches Erkenntnisinteresse leitend. Gegenstand der Erziehungswissenschaft, so schreibt MOLLENHAUER, ist "die Erziehung unter dem Anspruch der Emanzipation". Verdeutlicht wird dies anhand möglicher Untersuchungen zum Problem der Chancengleichheit: Das durch Untersuchungen zur Chancengleichheit erworbene Wissen darf dann kein solches sein, das zur Beherrschung von Menschen verwandt werden kann - so wie das Wissen über die Natur zu ihrer Beherrschung dient -, sondern nur ein Wissen, das die Emanzipation aus den Ungleichheiten fördert (MOLLENHAUER 1972, Theorien zum Erziehungsprozess). Emanzipation wird wie schon in der Kritischen Theorie in doppelter Hinsicht verstanden:
    (a) als Befreiung von Herrschaft als "Befreiung zu Mündigkeit und Selbstbestimmung" und
    (b) als Gleichheit der Rechte und Pflichten aller Gesellschaftsmitglieder, mit Blick auf eine Gesellschaft, die, wie GIESECKE formuliert, "von Herrschaft von Menschen über Menschen möglichst frei ist."
     
     
     
    3. Zwei ausgewählte sozialwissenschaftliche Theorieansätze und ihre wissenschaftstheoretische Basis
    An Behaviorismus und Handlungsforschung zeigt der folgende Abschnitt exemplarisch, welche Bedeutung die im ersten Teil der Vorlesung dargestellten verschiedenen Verständnisweisen von Wissenschaft für verschiedene Sozialwissenschaften haben.
     
    3.1 Der Behaviorismus
     
    Als Begründer des Behaviorismus (von behavior = Verhalten) gilt der amerikanische Psychologe JOHN B. WATSON: In der Einleitung zu seinem Buch "Psychology from the standpoint of a behaviorist" (1919) schreibt er:
     
    "Der Leser wird keine Diskussion des Bewusstseins finden und auch nicht die Begriffe wie Empfindung, Wahrnehmung, Aufmerksamkeit, Vorstellung, Wille usw. Diese Worte haben einen guten Klang; aber ich habe festgestellt, dass ich auf sie verzichten kann ... Offengestanden weiß ich nicht, was sie bedeuten. Ich glaube auch nicht, dass irgend jemand sie in stets übereinstimmender Weise zu gebrauchen vermag."
    WATSON spricht sich dafür aus, die psychologische Forschung rein auf beobachtbares Verhalten zu beschränken. Das Leitbild des Behaviorismus ist eine Psychologie, die ausschließlich auf durch einen außenstehenden Beobachter feststellbaren Verhaltensweisen basiert. WATSON kritisiert vor allem die Methode der Introspektion (Selbstbeobachtung), die er dafür verantwortlich macht, dass sich die Psychologie seiner Zeit in einer Fülle von spekulativen Fragen verstrickt hatte.
    Im Prinzip versucht der Behaviorist den Organismus (sowohl den menschlichen als auch den tierischen) nach dem Vorbild einer Maschine zu verstehen, einer Maschine allerdings, in die er nicht hineinsehen kann ("black box"), sondern deren Funktionsweise nur aus dem Input (Reize) und dem Output (Reaktion) zu erschließen ist. Psychische Vorgänge werden dabei also in Reiz-Reaktions-Verbindungen aufgelöst (daher auch die Bezeichnung "Reiz-Reaktions-" bzw. "Stimulus-Response-Psychologie). Interessant für den Behavioristen sind vor allem die Gesetzmäßigkeiten zwischen Reiz und Reaktion, die Gesetze des Verhaltens.
    Deutlich wurden wahrscheinlich bei dieser kurzen Darstellung der Grundzüge des Behaviorismus Unterschiede und Übereinstimmungen zu den in den vorangegangenen Abschnitten vorgestellten wissenschaftstheoretischen Positionen. Der Behaviorismus erscheint als Absage an die idiographische Wissenschaftsauffassung: weder Hermeneutik noch Phänomenologie entsprechen der Forderung nach Reduktion aller Begriffe auf Beobachtbares. So wird auch oft der Behaviorismus generell mit der empirisch-analytischen Sichtweise gleichgestellt. Hinter der Reduktion aller psychischen Phänomene auf beobachtbares Verhalten bei WATSON steht aber offensichtlich die Auffassung, man könne der Natur ihre Gesetze "ablauschen", also eine "Glaubensprämisse" des naiven Empirismus. In einer Folgezeit entwickelte sich der Behaviorismus immer mehr in Richtung logischer Empirismus. Hier wie dort finden wir eine strenge Orientierung an naturwissenschaftlichen Methoden und den Glauben an die Induktion: die Verallgemeinerung individuell beobachtbaren Verhaltens, die empirische Verifizierbarkeit allgemeingültiger Gesetze.
    Die Verfechter des klassischen Behaviorismus verbindet vor allem auch das Festhalten an der experimentellen Methode, aber auch die Auffassung, dass es eine Kontinuität zwischen tierischem und menschlichem Verhalten gibt. Aus diesem Glauben schöpft der klassische Behaviorismus die Berechtigung, Versuchspersonen durch Versuchstiere zu ersetzen und tierexperimentelle Ergebnisse auf menschliches Verhalten zu verallgemeinern. Im Behaviorismus findet sich die mechanistische Weltsicht von DESCARTES (1596-1650) wieder, die Vorstellung vom Mensch als Maschine, den Vergleich eines lebenden Organismus mit einem Uhrwerk.
     
    3.2 Die Handlungsforschung
     
    Handlungsforschung, Aktionsforschung und Tatforschung sind synonyme Übersetzungen des Begriffes action research, den KURT LEWIN etwa 1945 geprägt hat. LEWIN wollte - kommend von der experimentellen Sozialpsychologie - eine Wissenschaft begründen, deren Forschungsergebnisse unmittelbar Nutzen für Pädagogen, Sozialarbeiter etc. haben konnten. LEWIN wollte praxisnahe Hypothesen aufstellen und entsprechend diesen Hypothesen sinnvolle Veränderungen im sozialen Feld (social change) durchführen und dann in längerfristigen Studien die Auswirkungen dieser Veränderungen kontrollieren.
     
    "Die für die soziale Praxis erforderliche Forschung lässt sich am besten als eine Forschung im Dienste sozialer Unternehmungen oder sozialer Technik kennzeichnen. Sie ist eine Art Tat-Forschung (action research), eine vergleichende Erforschung der Bedingungen und Wirkungen verschiedener Formen des sozialen Handelns und eine zu sozialem Handeln führende Forschung. Eine Forschung, die nichts anderes als Bücher hervorbringt, genügt nicht.
    Das bedeutet keinesfalls, dass die hier verlangte Forschung in irgendeiner Hinsicht weniger wissenschaftlich oder "niedriger" sei als die für die reine Wissenschaft auf dem Gebiet der sozialen Erscheinungen nötige. Ich bin geneigt, das Gegenteil für wahr zu halten.".
    Dieser von LEWIN vorgestellte Ansatz wurde erst Ende der sechziger, Anfang der siebziger Jahre vor allem von Pädagogen und Soziologen aufgegriffen und als Möglichkeit verstanden, um aus der Misere des neopositivistischen Paradigmas herauszukommen. KLÜVER und KRÜGER (1972) meinten z.B. dass action research in der Folge der Auseinandersetzung zwischen den so bezeichneten Positivisten und Kritischen Theoretikern sich als Ausweg anbietet und bewerteten die Handlungsforschung als fortschrittlichen "Ansatz, der dem Erkenntnisinteresse einer sich als kritisch definierenden Sozialwissenschaft entgegenkommt".
    Als grundlegende Kennzeichen einer sich so verstehenden Handlungsforschung stellen KLÜVER und KRÜGER folgendes heraus:
     
    a) Die Problemauswahl und -definition geschieht nicht vorrangig aus dem Kontext wissenschaftlicher Erkenntnis, sondern entsprechend konkreten gesellschaftlichen Bedürfnissen.
    b) Das Forschungsziel besteht nicht ausschließlich darin, theoretische Aussagen zu überprüfen oder zu gewinnen, sondern darin, gleichzeitig praktisch verändernd in gesellschaftliche Zusammenhänge einzugreifen.
    c) Die als Problem aufgenommene soziale Situation wird als Gesamtheit - als soziales Feld - angesehen, aus der nicht aufgrund forschungsimmanenter Überlegungen einzelne Variablen isoliert werden können.
    d) Die praktischen und theoretischen Ansprüche des action research verlangen vom Forscher eine zumindest vorübergehende Aufgabe der grundsätzlichen Distanz zum Forschungsobjekt zugunsten einer bewusst einzunehmenden Haltung, die von teilnehmender Beobachtung bis zur aktiven Interaktion mit den Beteiligten reicht.
    e) entsprechend soll sich auch die Rolle der Befragten und Beobachteten verändern und ihr momentanes Selbstverständnis so festgelegt werden, dass sie zu Subjekten im Gesamtprozess werden.
    Zahlreiche Aufsätze jener Zeit vermitteln den Eindruck, dass man in der Aktionsforschung eine sinnvolle Erweiterung des empirisch-analytischen Vorgehens, aber auch eine handfeste Möglichkeit zur Forschung im Kontext der Kritischen Theorie sah. Aus der Perspektive der Kritischen Psychologie sieht MASCHEWSKY-SCHNEIDER (1977) drei Vorzüge der Handlungsforschung:
     
    a) Im Gegensatz zur traditionellen Sozialforschung bleiben in der Handlungsforschung die Erforschten nicht länger nur Objekte der Forschung, sondern treten auch im Forschungsprozess als Subjekte auf.
    b) Diese Subjektivität der Forschungsobjekte äußert sich im selbstbewussten Handeln der Individuen. Im Handlungsforschungsprozess verbinden sich - zumindest dem Anspruch nach - Handlungs- und Forschungsperspektiven untereinander. Forscher und Erforschte initiieren in einem kollektiven Prozess Veränderungsstrategien im untersuchten Feld.
    c) Entgegen dem traditionellen Vorgehen der Isolation und Manipulation einzelner Variablen, insbesondere in der experimentellen Forschung, macht Handlungsforschung das "gesamte" real existierende Untersuchungsfeld zum Gegenstand der Forschung.
    In der Handlungsforschung sind jene Menschen und Menschengruppen, welche von den Wissenschaftlern untersucht werden, nicht mehr bloße Informationsquelle des Forschers, sondern Individuen, mit denen sich der Forscher gemeinsam auf den Weg der Erkenntnis zu machen versucht (LEWIN).
    Handlungsforschung ist ein Ansatz empirischer Forschung, der in den Human- und Sozialwissenschaften und in Abgrenzung zur traditionellen Empirie - insbesondere der strengen experimentellen Forschung - entwickelt wurde.
    Drei wesentliche Merkmale (Prämissen) kennzeichnen diese Abgrenzung:
    Sozialwissenschaftliche Forschung kann nicht wertfrei betrieben werden, d.h., der Forscher ist kein außenstehender objektiver Beobachter, sondern greift parteilich in den Forschungsprozess ein.
    Forschung ist ein gegenseitiger Lernprozess, der sowohl den Forscher als auch den Untersuchten miteinbezieht.
    Sozialwissenschaftliche Forschung weist einen engen Praxisbezug auf, wobei gemeinsam Forscher und Untersuchter gesellschaftliche und soziale Probleme lösen.
     
    Diese Prämissen fordern eine grundlegende Neubestimmung des sozial- und humanwissenschaftlichen Gegenstandes (Inhalt), und damit auch eine von diesem jeweiligen Gegenstand abhängige Konzeption der Methoden. Zentral für die bisherigen Umsetzungen dieses neuen Forschungskonzeptes ist der emanzipatorische Charakter des Forschungsprozesses.
    In Thesenform seien daher einige Aspekte zusammenfassend wiederholt, wobei diese Punkte eine Abgrenzung zur herkömmlichen Forschungspraxis darstellen:
    Handlungsforschung ist dialogisch.
    Handlungsforschung ist emanzipatorisch.
    Handlungsforschung ist demokratisch.
    Handlungsforschung hilft bei der Lösung von Konflikten.
    Handlungsforschung wirkt verändernd.
    Handlungsforschung betont die Emotionalität des Menschen.
    Handlungsforschung setzt neue Impulse für wissenschaftliches Handeln.
    Handlungsforschung ist dynamisch.
    Handlungsforschung steht im gesamtgesellschaftlichen Kontext.
    Handlungsforschung berücksichtigt den Menschen.
    Handlungsforschung baut Macht ab.
    Handlungsforschung reduziert Ängste.
    Handlungsforschung ist idiographisch.
    Handlungsforschung verbindet Alltags- und wissenschaftliches Wissen
    (vgl.
    Stangl, Werner (1997). Handlungsforschung. "Werner Stangls Arbeitsblätter".
    http://paedpsych.jk.uni-linz.ac.at/INTERNET/ARBEITSBLAETTERORD/Arbeitsblaetter.html).
     
     
    4 Grundlagen empirischer Sozialforschung
     
    4.1 Allgemeines
     
    Bei der Realisierung von empirischen Forschungsvorhaben sind eine Reihe von Teilschritten zu vollziehen und Entscheidungen zu treffen: Eingrenzung des Themas, Auswahl der Untersuchungsobjekte, Auswahl eines geeigneten Forschungsdesign für die Fragestellung, Konstruktion und Auswahl eines geeigneten Erhebungsinstrumentes u.a. Diese Themen bilden den "Roten Faden" für die folgenden Kapitel. In einem einleitenden Abschnitt werden jedoch zunächst noch einige wichtige Grundbegriffe geklärt.
     
    4.2 Grundbegriffe
    4.2.1 Begriff und Konstrukt
     
    Ein Begriff ist ein Wort, das eine durch Verallgemeinerung von Einzelfällen gewonnene Abstraktion ausdrückt. Gewicht ist ein Begriff und drückt mehrere Beobachtungen von Gegenständen aus, die mehr oder weniger schwer oder leicht sind. Masse, Energie und Kraft sind abstraktere Begriffe wie Gewicht, Höhe und Länge. Ein Begriff ist also ein mit einem bestimmten Wort oder mehreren Wörtern verbundener Vorstellungsinhalt, dem verschiedene Personen auch unterschiedliche Bedeutung beimessen können. Soll eine solche Beschreibung anderen Personen übermittelt werden, ist es dazu erforderlich, dass die anderen mit den genannten Begriffen möglichst die gleichen Vorstellungen verbinden wie der Sprecher. Wissenschaft, die von der Alltagssprache ausgeht, ist daher genötigt, die verwendeten Bezeichnungen (= Begriffe) zu präzisieren, um exakte Aussagen zu ermöglichen. Mit dem Begriff des Konstrukt bezeichnet man solche Begriffe höherer Verbindlichkeit. Ein Konstrukt stellt ebenfalls einen Begriff, er erhält jedoch zusätzliche Bedeutung dadurch, dass er gezielt und bewusst für einen bestimmten wissenschaftlichen Zweck neu festgelegt oder übernommen wurde: z.B. Soziale Schicht, Motivation, Konformismus, autoritäres Verhalten etc.
     
    4.2.2 Theorie und Hypothese
     
    Theorien stellen immer ein auf einen bestimmten Wirklichkeitsausschnitt bezogenes und raum-zeitlich begrenztes Aussagesystem dar. Es existiert beim gegenwärtigen Stand der Forschung keine Theorie der Welt. Sozialwissenschaften können nur auf Teiltheorien zurückgreifen (Theorien abweichenden Verhaltens, Gruppentheorien, ökonomische Theorien etc.). MERTON hat dafür den Begriff Theorien mittlerer Reichweite geprägt, womit im wesentlichen die auf bestimmte Bereiche begrenzte raum-zeitliche Gültigkeit gemeint ist.
    Jede Theorie enthält eine Reihe unabhängiger Aussagen (Axiome), aus denen mit Hilfe von Regeln weitere Aussagen (Gesetze) abgeleitet werden können. Unter Axiomen oder Prämissen sollen solche Aussagen verstanden werden, die generell nicht aus anderen Aussagen ableitbar sind. Jede Theorie stellt einen sprachlichen Rekonstruktionsversuch von Zusammenhängen in einem bestimmten Realitätsausschnitt dar.
     
    Definition: Eine Theorie ist ein System logisch widerspruchsfreier Aussagen über einen Untersuchungsgegenstand; eine Hypothese eine Vermutung über den Zusammenhang zwischen mindestens zwei Sacherverhalten, die mit Konstrukten begrifflich gefasst werden.
    Zu einer Theorie gehören mehrere Hypothesen und zwar nicht ungeordnet und isolierte Hypothesen, sondern von einer Theorie reden wir erst bei einem System von Hypothesen über einen Gegenstandsbereich und zwar einem logisch widerspruchsfreien System.
    Theorien für die Erfahrungswissenschaft sind also die wesentlichen Werkzeuge, die den Zugang zur Realität ermöglichen. Die Theorie ...
    ... liefert die grundlegende Orientierung; sie definiert den Objektbereich, sie legt fest, welche Aspekte der Realität zum Gegenstand der Forschungstätigkeit gemacht werden sollen,
    ... stellt das begriffliche Bezugssystem zur Verfügung; sie erlaubt relevante Aspekte des Objektbereiches systematisch darzustellen.
    ... dient der Vorhersage zukünftiger Ereignisse. Wenn eine Zusammenfassung von Beobachtungen in Form von Verallgemeinerungen erstellt worden ist, erwartet man, dass dieselben Strukturen und Beziehungen auch dort gefunden werden, wo noch keine Erfahrungen und Beobachtungen gemacht worden sind, und man erwartet die Gültigkeit dieser Beziehungen auch in der Zukunft.
     
    Hypothese: empirisch gehaltvolle Aussage, die einer Klasse von Einheiten bestimmte Eigenschaften zuschreibt oder gewisse Ereigniszusammenhänge oder - folgen behauptet, d.h. das Vorliegen einer Regelmäßigkeit im untersuchten Bereich konstatiert. Sie gilt stets nur vorläufig und muss so beschaffen sein, dass ihre Überprüfbarkeit durch Beobachtung und Experiment gewährleistet ist (Lexikon der Soziologie).
    Hypothesen bilden die Bausteine von Theorien. Folgende Verfahrenslogik im Umgang mit ihnen ist bestimmend für das moderne empirische, kritisch-rationale Wissenschaftsverständnis:
     
    a) Hypothesen die sich in der Konfrontation mit der empirischen Wirklichkeit als unzutreffend erweisen, gelten als falsifiziert und sind - unter Berücksichtigung neu gewonnener Erkenntnisse - zu korrigieren und erneut empirisch zu testen.
    b) Hypothesen, die sich bei Konfrontation mit der empirischen Wirklichkeit als zutreffend erweisen, gelten als bestätigt; sie sind entweder verschärften empirischen Tests zu unterwerfen, oder sind falls sie sich wiederholt bewährt haben, gehaltserweiternd umzuformulieren (stärker zu verallgemeinern) und danach wiederum empirisch zu überprüfen.
    c) Nur solche Hypothesen sind zulässig, die sich auf erfahrbare Realität beziehen. Ein empirischer Bezug der benutzten Begriffe muss gegeben sein (positive Beispiele: Tisch, Wissenschaft, Politische Partei; negative Beispiele: Gute Fee, Zentaur u.ä..)
    d) Die formulierten Hypothesen müssen eine Beschreibung von Zusammenhängen oder Sachverhalten bieten, die ebenfalls prinzipiell erfahrbar sind.
    e) Die Sätze müssen so formuliert sein, dass sie prinzipiell widerlegbar sind. Nicht zugelassen sind analytisch wahre, d.h. aus logischen Gründen wahre Aussagen, so wie ES-GIBT-Aussagen.
     
    Ein Beispiel
    Eine Minitheorie soll Aspekte des sozialen Zusammenlebens von Menschen erfassen und zur Klärung der Frage beitragen, ob sich in neugebauten Vorortwohnsiedlungen die Nachbarschaftskontakte weniger intensiv als in innerstädtischen gewachsenen älteren Wohngebieten gestalten. Die folgende Theorie bezieht sich auf Konstrukte wie Häufigkeit des Kontaktes, Alter und Lage der Wohngebiete, räumliche Nähe. Unberücksichtigt bleiben dagegen Merkmale wie: Einkommen der Bewohner, Schulbildung, Art der Berufstätigkeit, Alter der Bewohner u.ä.
     
    Hypothesen unserer Minitheorie
    Je näher Personen zusammenwohnen, desto häufiger nehmen sie miteinander Kontakt auf.
    Je häufiger Personen interagieren, desto intensiver wird die Beziehung zwischen ihnen.
    Je länger Personen in einem Gebiet wohnen, desto mehr Interaktionen finden im Nachbarschaftsbereich statt.
    Je älter und zentraler gelegen Wohngebiete sind, desto höher ist die Bebauungsdichte.
    In älteren innerstädtischen Wohngebieten ziehen Menschen weniger häufig um als in neugebauten Vorortwohnsiedlungen.
     
    4.2.3 Operationalisieren
     
    Wissenschaft bewegt sich immer auf zwei Ebenen: der Ebene der Theorie und der Ebene der Beobachtung. Die Hypothesen, die als Versuch der begrifflichen (theoretischen) Fassung von sozialer Realität gesehen werden können, müssen der Logik des empirischen Wissenschaftsverständnisses folgend, an der Realität überprüft werden. Dazu müssen Daten gesammelt werden, um die Hypothesen überprüfen zu können. Zur Verbindung der theoretischen Ebene mit der Beobachtungsebene bedarf es Regeln, die die Beziehung zwischen beiden Bereichen herstellen. Begriffe der theoretischen Ebene müssen in Forschungsoperationen übersetzt oder operationalisiert werden.
     
    Indikator: in der Sozialforschung Repräsentant, "Anzeiger" für untersuchte Sachverhalte oder Eigenschaften sozialer Tatsachen und Prozesse(Lexikon der Soziologie).
    Unter Operationalisierung eines Konstruktes ist die Angabe jener Forschungsoperationen zu verstehen, über die festgestellt werden kann, ob und in welchem Ausmaß der mit einem Konstrukt bezeichnete Sachverhalt in der Realität vorliegt (vgl. auch Kapitel zur Befragung). Wenn der empirische Bezug der in einer Theorie (Hypothese) verwendeten Konstrukte nur indirekt herstellbar ist (Gruppenkohäsion, Feindschaft u.ä.) müssen Indikatoren angebbar sein, die auf das Vorhandensein der mit dem Begriff gemeinten Sachverhalte schließen lassen (Gruppenkohäsion: Bejahung der Gruppe, Hilfsbereitschaft innerhalb der Gruppe, Bereitschaft der Gruppenmitglieder zu gemeinsamen Handlungen).
    Indikatoren die nahe an der beobachteten Realität liegen, (z.B. das Konstrukt Bildung operationalisiert über die formale Schulbildung, die in einem Fragebogen als höchster Schulabschluss abgefragt wird) bezeichnet man als definitorische Indikatoren; Bedeutungsgehalt des definierten Begriffes und Bedeutungsgehalt des beobachteten Indikators sind nahezu identisch.
     
    Korrelative Indikatoren sind solche Indikatoren, die nicht unmittelbar Bestandteil der Definition des Konstruktes sind, aber dennoch mit der begrifflich bezeichneten Merkmalsdimension korrespondieren (z.B. Soziale Herkunft: Schulbildung der Eltern, Beruf der Eltern, Grad der beruflichen Autonomie).
     
    Schlussfolgernde Indikatoren: Hier ist der Zusammenhang zwischen Indikator und zu messendem Konstrukt überhaupt nicht direkt empirisch überprüfbar, sondern wir sind krass gesprochen auf den Glauben an die Richtigkeit dieser Übereinstimmung angewiesen.
     
    4.2.4 Variable
     
    Untersuchungsobjekte können niemals in ihrer Gesamtheit empirisch erfasst werden; sie können immer nur in Hinblick auf bestimmte, für die Fragestellung relevante Eigenschaften beschrieben werden (Alter, Schulbildung, Geschlecht etc.). Solche Eigenschaften sind nicht nur etwas Punktuelles, sondern sie bezeichnen Dimensionen. Mit Alter ist allgemein nicht nur eine bestimmte Zahl von Jahren, Monaten und Tagen gemeint, sondern die Gesamtheit aller möglichen Alterszustände, die wir bei Versuchspersonen beobachten oder sonst wie feststellen können. Variablen sind begrifflich definierte Merkmale (Eigenschaften) von Objekten, die mehrere Ausprägungen (mehrere unterschiedliche Zustände) annehmen können.
     
    Definition: Eine Merkmals- bzw. Eigenschaftsdimension, die mit einem Begriff bezeichnet wird und mehrere Ausprägungen annehmen kann, soll Variable heißen. Eine Variable ist das Resultat der Operationalisierung eines Begriffes.
     
    4.2.5 Messen
     
    Das Messen von sozialen und gesellschaftlichen Phänomenen ist eng an Sprache als Bezugssystem gebunden und erfordert - wie oben ausgeführt - die Operationalisierung von theoretischen Konstrukten. Mit dem Begriff der Operationalisierung bezeichnet man dabei die Übersetzung von Konstrukten, den Begriffen der theoretischen in solcher der empirischen Ebene. Grundbausteine dieses Prozesses in der Einstellungsmessung etwa stellen Aussagen (= Item oder Statement) dar. Das Ausmaß von Zustimmung oder Ablehnung einer Versuchsperson, gemessen auf einer mehrstufigen Skala (z.B. von "stimme stark zu" bis "lehne stark ab"), zu einem Statement gilt dabei als Indikator für die Einstellung einer Versuchsperson gegenüber einem Sachverhalt oder Problem. Die Auswahl einer validen Stichprobe von Items, aus einem Universum möglicher Aussagen, die als guter Indikator für eine bestimmte Einstellung zu werten sind, stellt dabei ein Grundproblem der Konstruktion von Messinstrumenten im Bereich der Sozialwissenschaften dar. Um Daten zu erhalten, müssen wir also messen. Unter Messen im engeren Sinn kann die systematische Zuordnung einer Menge von Zahlen oder Symbolen zu den Ausprägungen einer Variablen gemeint werden. Die Zuordnung oder genauer die Abbildung soll so erfolgen, dass die Relationen unter den Zahlenwerten den Relationen unter den Objekten entsprechen, die sie abbilden.
     
    Die Gütekriterien des Messens
    1) Objektivität: Damit ist der Grad der Unabhängigkeit des Untersuchungsinstrumentes von der Person, die die Untersuchung durchführt, gemeint.
     
    2) Reliabilität: ist der Grad der Genauigkeit, mit dem ein Erhebungsinstrument ein Merkmal misst, gleichgültig ob es dieses Merkmal überhaupt misst (= Formales Gütekriterium). Reliabilitätsüberprüfung werden durch Re-Test, Paralleltest bzw. Halbierungsmethode durchgeführt.
     
    3) Validität: ist der Grad der Genauigkeit mit dem ein Untersuchungsinstrument das misst, was es zu messen beansprucht (= inhaltliches Gütekriterium). Validitätsüberprüfung erfolgt durch Extremgruppenbildung, Vergleich mit einem Außenkriterium bzw. Expertenbefragung etc.
     
    4.3 Auswahlverfahren
    4.3.1 Allgemeines
     
    Meist ist es nicht möglich, Hypothesen an allen für eine bestimmte Fragestellung bedeutenden Versuchspersonen (= Grundgesamtheit) zu überprüfen und von ihnen Daten zu erheben, sondern nur an einer Auswahl, einer Stichprobe (engl. sample), aus dieser Grundgesamtheit. Stichprobe und Grundgesamtheit, sowie der Schluss von der ersteren auf die letztere bilden das Zentralthema der gesamten Inferenzstatistik.
    Von Stichproben kann aber nur dann sinnvoll auf Grundgesamtheiten geschlossen werden, wenn die Stichproben die Grundgesamtheit in allen Merkmalen möglichst gut widerspiegeln, d.h. wenn sie repräsentativ sind. Allen nachfolgend angeführten Auswahlverfahren liegt das Streben zugrunde, ein hohes Maß an Repräsentativität zu erreichen.
     
    Grundgesamtheit: Unter Grundgesamtheit oder Population ist diejenige Menge von Individuen, Fällen oder Ereignissen zu verstehen, auf die sich die Aussagen einer Untersuchung beziehen sollen und die im Hinblick auf die Fragestellung und die Operationalisierung vorher eindeutig abgegrenzt werden muss. Genau genommen handelt es sich hierbei um die angestrebte Grundgesamtheit. Diese angestrebte Grundgesamtheit ist für eine Erhebung meist kaum vollständig und korrekt erfassbar. Davon zu unterscheiden ist die Erhebungsgrundgesamtheit. Darunter ist diejenige Gesamtheit von Fällen zu verstehen, aus der faktisch die Stichprobe gezogen wird. Auswahleinheiten sind diejenigen Einheiten, auf die sich der Auswahlplan konkret bezieht (Personen, Gruppen, Klassen u.ä.). Erhebungseinheiten sind diejenigen Einheiten, die repräsentativ in der Stichprobe vertreten sein sollen.
     
    Erstreckt sich eine Datenerhebung auf sämtliche Elemente der Grundgesamtheit, führt man eine Totalerhebung durch; werden nur für eine Teilmenge der möglichen Fälle Daten erhoben, dann ist es eine Teilerhebung. Totalerhebungen sind eigentlich nur dann sinnvoll, wenn die Zahl der Einheiten der Grundgesamtheit relativ klein ist. Die Vorteile von Stichproben gegenüber Vollerhebungen sind:
    Kosten (Zeit, Geld, Arbeitsaufwand) werden gesenkt; die Wirtschaftlichkeit steigt überproportional mit der Größe der Grundgesamtheit.
    Ergebnisse liegen wesentlich schneller vor; beispielsweise kann es bei Großerhebungen wie den eigentlich alle zehn Jahre stattfindenden Volkszählungen Jahre dauern, bis die Ergebnisse vorliegen. Der sog. Mikrozensus eine jährlich durchgeführte Stichprobenerhebung auf Basis von 1% liefert demgegenüber wesentlich aktuellere Informationen.
    Im allgemeinen ist auch die Genauigkeit der Stichprobenergebnisse im Vergleich zur Vollerhebung bei großer Grundgesamtheit höher: wegen besserer Möglichkeit der Kontrolle, präziserer Datenerhebung.
     
    Ziel der Durchführung einer systematischen Teilerhebung ist es also, über die aktuellen Untersuchungsfälle hinaus zu (verallgemeinerbaren) Aussagen über die Gesamtheit aller Fälle zu kommen. Auswahlverfahren sollen dabei die Lösung eines alten Problems ermöglichen: bei der Beschränkung der Untersuchung auf das intensive Studium einer relativ kleinen Zahl von Fällen dennoch zu gesicherten Verallgemeinerungen zu kommen. Die Verknüpfung von Stichprobendaten mit Aussagen über die Grundgesamtheit kann in unterschiedlicher Absicht in zweierlei Richtung erfolgen:
    Man kann anhand der Ergebnisse der Teilerhebung Verallgemeinerungen von der Stichprobe auf die Grundgesamtheit vornehmen, also beispielsweise von den empirischen Stichprobendaten ausgehend generelle Hypothesen entwickeln oder deskriptive Aussagen für die Grundgesamtheit formulieren. Man nennt dies den Repräsentationsschluss
    Der Ausgangspunkt kann aber auch - umgekehrt - eine vorhandene Theorie oder Hypothese sein, die getestet werden soll, und zwar anhand der Resultate einer Stichprobe. Hier wird von vermuteten (in manchen Fälle auch: bekannten) Merkmalsverteilungen und/oder -Zusammenhängen in der Grundgesamtheit auf zu erwartende Werte in der Stichprobe geschlossen. Diese Argumentationsrichtung nennt man Inklusionsschluss.
     
    4.3.2 Anforderungen an die Stichprobenkonstruktion
    Die Erfüllung der folgenden Voraussetzungen im Auswahlprozess bestimmt unmittelbar die Qualität einer Stichprobe:
    Die Stichprobe muss ein verkleinertes Abbild der Grundgesamtheit hinsichtlich Heterogenität der Elemente und hinsichtlich der Repräsentativität der für die Hypothesenprüfung relevanten Variablen sein.
    Die Einheiten oder Elemente der Stichprobe müssen definiert sein.
    Die Grundgesamtheit sollte angebbar und empirisch definierbar sein.
    Das Auswahlverfahren muss angebbar sein und Forderungen (1) erfüllen.
     
    Repräsentativität heißt in diesem Zusammenhang: Es besteht Kongruenz zwischen theoretisch definierter Gesamtheit und tatsächlich durch die Stichprobe repräsentierter Gesamtheit; oder: Die Stichprobe ist ein verkleinertes Abbild einer angebbaren Grundgesamtheit
     
    Hinweis: Aus dieser Definition folgt, dass es kein Sample geben kann, das überhaupt nichts abbildet, also für überhaupt keine Grundgesamtheit repräsentativ wäre. Jede beliebige Teilmenge von Fällen ist ein repräsentatives Abbild für irgendeine Gesamtheit von Fällen; die Frage ist: für welche Grundgesamtheit? Die Fragestellung im Zusammenhang mit dem Gütekriterium Repräsentativität darf daher nicht lauten, ob ein Sample eine Grundgesamtheit abbildet, sondern welche Grundgesamtheit es abbildet. Ohne präzise Angabe der angestrebten Grundgesamtheit kann somit über die Repräsentativität nicht entschieden werden. Erst durch die Orientierung an einer definierten angestrebten Grundgesamtheit lässt sich die Frage nach der Repräsentativität einer Stichprobe bejahen oder verneinen.
     
    4.3.3 Typen von Auswahlverfahren
     
    Ganz grob ist zunächst zu unterscheiden zwischen
    nicht zufallsgesteuerten Auswahlen und
    zufallsgesteuerten Auswahlverfahren.
    Bei nichtzufallsgesteuerten Auswahlen wird - sofern überhaupt ein Auswahlplan existiert - Repräsentativität dadurch angestrebt, dass bestimmte Merkmale der Erhebungseinheiten und ihre Verteilung in der Grundgesamtheit als Auswahlkriterien benutzt werden (Quotierung). Bei zufallsgesteuerten Auswahlen wird die Entscheidung darüber, ob ein Element der Grundgesamtheit auch Element der Stichprobe wird, der Entscheidung des Forschers entzogen und durch einen kontrollierten Zufallsprozess ersetzt. Während eine Stichprobe, die aufgrund eines nicht zufallsgesteuerten Auswahlverfahrens zustande gekommen ist, lediglich Repräsentativität hinsichtlich der Merkmale beanspruchen kann, die als Auswahlkriterien benutzt wurden, sind zufallsgesteuerte Auswahlen tendenziell repräsentativ im Hinblick auf sämtliche Merkmale der Erhebungseinheiten.
     
    4.3.3.1 Nichtzufallsgesteuerte Auswahlverfahren
     
    Willkürliche Auswahl
    Im Alltagsverständnis wird häufig Zufallsauswahl gleichgesetzt mit dem Auswahlverfahren, das hier mit willkürlicher Auswahl oder Auswahl aufs Geratewohl bezeichnet wird. Dabei entscheidet nicht ein kontrollierter Zufallsprozess darüber, ob ein Element der Grundgesamtheit in die Stichprobe kommt oder nicht, sondern maßgebend ist ausschließlich eine willkürliche, d.h. durch keinen Auswahlplan kontrollierte Entscheidung einer Person, die die Auswahl vornimmt; z.B. der/die InterviewerIn greift sich nach Belieben an einem beliebigen Ort und zu einem beliebigen Zeitpunkt Personen heraus, die er/sie befragt.
     
    Hinweis: Prüfen wird ob die 4 geforderten Voraussetzungen einer Stichprobe erfüllt sind, so stellen wir fest, dass kein einziges Kriterium erfüllt ist. Die Stichprobe kann schon deshalb kein verkleinertes Abbild einer definierten Grundgesamtheit sein, weil weder die Grundgesamtheit angebbar ist noch die Stichprobenelemente genau definiert sind. Da die Stichprobenelemente vom Interviewer willkürlich, also ohne vorher festgelegten Plan bestimmt werden, ist auch das Auswahlverfahren nicht angebbar. Konsequenz: Willkürliche Auswahlen sind für statistisch-kontrollierte wissenschaftliche Aussagen wertlos.
     
    Bewusste Auswahlen
    Im Unterschied zur willkürlichen Auswahl werden bewusste Auswahlen planvoll, aufgrund vorheriger Überlegungen gezielt vorgenommen, man spricht von gezielter Auswahl oder Auswahl nach Gutdünken, d.h. nach Kriterien, die im Forschungsprozess für bestimmte Zwecke sinnvoll erscheinen.
    Ob ein Element der Grundgesamtheit ausgewählt wird, hängt nicht mehr von der willkürlichen Entscheidung des Interviewers ab sondern vom Zutreffen vorher festgelegter - also angebbarer und intersubjektiv nachvollziehbarer - Kriterien.
    Solche Kriterien können sein: Es werden nur ExpertInnen zu einem bestimmten Thema befragt (Expertenbefragung); es kommen nur durchschnittliche Fälle in die Auswahl (4-Personen-Haushalte mittleren Einkommens), es werden Extremgruppen untersucht, etwa Personen mit besonders niedrigem oder hohem Einkommen.
    Bewusste Auswahlen eignen sich insbesondere bei hypothesen-/theorietestenden Untersuchungen. Im Falle deskriptiver Forschung bieten sie sich vor allem für Analysen mit eng eingegrenzten Fragestellungen an sowie für Vorklärungen in Problembereichen, in denen noch relativ wenig Basiskenntnisse vorhanden sind: Durch die Analyse typischer Fälle wird z.B. die Entwicklung eines endgültigen Forschungsinstrumentariums erleichtert.
     
    Hinweis: Je nach spezifischer Ausgestaltung bewusster Auswahlen sind die 4 Gütekriterien bei diesen Verfahren mehr oder weniger vollständig erfüllt. So muss z.B. die angestrebte Grundgesamtheit angebbar sein, um überhaupt die Kriterien für eine gezielte Auswahl entwickeln zu können; die Erhebungsgrundgesamtheit dagegen bleibt weitgehend unbestimmt. Damit ein Element der Grundgesamtheit in die Stichprobe aufgenommen werden kann, muss es bestimmte Merkmale oder Merkmalskombinationen aufweisen; damit scheidet die vollständige Willkür des Interviewers aus. Das Auswahlverfahren selbst ist angebbar; es erfüllt allerdings die Forderung, ein verkleinertes Abbild der Grundgesamtheit zu sein, nur insofern, als lediglich einige weinige vorher festgelegten Merkmale in der Stichprobe repräsentiert werden. Die Festlegung dieser Merkmale richtet sich nach den beabsichtigten Aussagen der Untersuchung.
     
    Quoten-Auswahl (engl. quota-sample)
    Ein in der kommerziellen Forschung oft benutztes Auswahlverfahren ist die Quoten-Auswahl. Es handelt sich um eine Zwischenform von bewusster und willkürlicher Auswahl. Bewusst bzw. gezielt werden InterviewerInnen Quoten von Merkmalen vorgegeben, die die befragten Personen aufweisen müssen; etwa Merkmale wie Alter, Geschlecht, Wohnbezirk u.ä. Im Rahmen dieser Quoten allerdings hat man freie Hand, wen man befragt. Die Auswahl ist also im Hinblick auf ihre Planung partiell gezielt; sie ist darüber hinaus im Zuge ihrer Realisierung partiell willkürlich. Beim Quotenverfahren beruht die Bestimmung der in eine Erhebung einzubeziehenden Einheiten letztlich auf Ermessen. Kennzeichnend ist, dass hierbei diese Ermessungsentscheidungen im Stadium der Feldarbeit von den Erhebungssubjekten (Interviewer) selbst getroffen werden.
    Da die Quotierung dem Verfahren der Schichtung bei der geschichteten Zufallsauswahl entspricht, kann man die Quotenstichprobe auch als geschichtete willkürliche Auswahl bezeichnen. Die Festlegung der Quoten geschieht anhand bekannter Verteilungen von für die Untersuchung relevanten Merkmalen in der Grundgesamtheit; es werden also wiederum Kenntnisse über die Grundgesamtheit vorausgesetzt.
    Um bei großen Sample-Umfängen den Auswahlplan nicht zu kompliziert werden zu lassen und um das Zustandekommen der Auswahl nicht zu sehr zu verteuern, muss man sich bei den Quotierungsvorgaben auf eine begrenzte Zahl von zudem leicht für den Interviewer erkennbaren oder erfragbaren Merkmalen beschränken. Leicht erkennbar sind bei Personen z.B. demographische Merkmale wie Alter, Geschlecht und Familienstand.
    Bestandteil des Auswahlverfahren bei Quoten-Auswahl dürfte häufig das sogenannte Schneeball-Verfahren sein. Hierbei wählt der Interviewer die erste Zielperson im Rahmen des Quotenplanes willkürlich aus. Am Schluss des Interviews fragt er dann nach geeigneten weiteren Zielpersonen aus dem Bekanntenkreis des Befragten.
     
    Hinweis: Was die vier Qualitätskriterien betrifft, so ist für die Quotenauswahl festzuhalten, dass wie bei den bewussten Auswahlen die angestrebte Grundgesamtheit bei diesem Verfahren zwar abgegrenzt ist, die Erhebungsgesamtheit jedoch weder auf irgendeine Weise physisch fixiert noch (etwa durch eine Kartei oder Liste) symbolisch repräsentiert ist. Die Erhebungsgrundgesamtheit kann erheblich kleiner sein als die angestrebte Grundgesamtheit (z.B. hätten bei einer Schulstichprobe nicht anwesende Schülerinnen, keine Chance in die Stichprobe aufgenommen zu werden). Das Auswahlverfahren ist nur zum Teil angebbar (Quotierung), zum andern Teil überhaupt nicht (nach welchen Gesichtspunkten wählen InterviewerInnen die Personen aus?) Die Stichprobe ist schließlich allenfalls hinsichtlich der Quotierungsmerkmale ein verkleinertes Abbild der Grundgesamtheit; hinsichtlich anderer Merkmale ist die Erfüllung dieser Forderung nicht mehr gesichert.
     
    4.3.3.2 Zufallsgesteuerte Auswahlverfahren
     
    Bewusste Auswahlen sind immer dann vom Prinzip her nicht möglich, wenn keine oder nur sehr wenig gesicherte Kenntnisse über die Struktur der Grundgesamtheit vorliegen. Für zufallsgesteuerte Auswahlen gilt dagegen, dass - innerhalb berechenbarer Fehlergrenzen und mit angebbarer Wahrscheinlichkeit - Repräsentativität für alle Elemente, für alle Merkmale und Merkmalskombinationen sichergestellt werden kann, ohne dass Kenntnisse über die Struktur der Grundgesamtheit vorhanden sein müssen. Dies wird dadurch gewährleistet, dass die Auswahleinheiten kontrolliert zufällig aus der Grundgesamtheit entnommen werden, so dass für alle Einheiten die gleiche Chance besteht, in die Auswahl aufgenommen zu werden.
    Wenn (durch Kontrollen) gesichert ist, dass jede Einheit der Grundgesamtheit die gleiche Chance hat, in die Auswahl zu gelangen (einfache Zufallsauswahl), dann werden Einheiten mit Merkmalen, die häufig in der Grundgesamtheit vorkommen, auch in der Stichprobe öfter erfasst als Einheiten mit Merkmalen, die in der Grundgesamtheit nur selten vertreten sind. Solange die Auswahl nicht verzerrt ist, kann bei hinreichend großem Stichprobenumfang angenommen werden, dass alle möglichen Merkmale mehr oder weniger entsprechend ihrer Häufigkeit in der Grundgesamtheit auch in der Auswahl vertreten sind. Dies gilt auch für die Häufigkeitsverteilung solcher Merkmale, an deren Auftreten zunächst gar nicht gedacht worden war, und die deshalb bei gezielter Auswahl überhaupt nicht bei der Stichprobenkonstruktion berücksichtigt worden wären.
     
    Je größer die Stichprobe um so eher kann man eine ziemlich genau Übereinstimmung zwischen Stichprobenwerten und Parametern der Grundgesamtheit erwarten.
    Für zufallsgesteuerte Auswahlen gilt das sogenannte Gesetz der großen Zahl, dessen Formulierung auf Wahrscheinlichkeitsüberlegungen über das Auftreten einzelner Ereignisse sowie auf Überlegungen über Eigenschaften einer Serie unabhängiger Ereignisse beruht. Vereinfacht formuliert:
    Ereignisse, deren Wahrscheinlichkeiten sehr klein sind, treten sehr selten auf. Mit anderen Worten: Beim Ziehen einer Zufallsstichprobe wird es sehr selten vorkommen, dass eine Einheit mit einer Merkmalsausprägung gezogen wird, die in der Grundgesamtheit nur sehr selten vorkommt( = Aussage über die Wahrscheinlichkeit des Auftretens einzelner Ereignisse).
    Die Wahrscheinlichkeit dafür, dass die relative Häufigkeit eines Merkmales (oder eine andere statistische Maßzahl) in der Stichprobe beträchtlich von dem entsprechenden Wert in der Grundgesamtheit abweicht, wird um so geringer, je größer der Umfang der Beobachtungsserie ist, bei der diese Maßzahl ermittelt wurde, d.h. je größer die Stichprobe ist (=Wahrscheinlichkeitsaussage über Eigenschaften der Stichprobe)
     
    Einfache Zufallsauswahl (engl. random sample)
    Hier hat jedes Mitglied der Grundgesamtheit die gleiche Chance, in die Stichprobe aufgenommen zu werden. Die Auswahl gilt dann als zufällig getroffen. Diese Voraussetzung ist für eine Zufallsstichprobe aus menschlichen Grundgesamtheiten oft nicht leicht zu realisieren. Um jeder Einheit die gleiche Chance zu sichern in das Sample aufgenommen zu werden, müssen folgende Grundregeln beachtet werden:
     
    a) Die Grundgesamtheit, aus der das Sample gezogen wird und die Einheiten (einzelne Personen, Gruppen, Schulen etc.) müssen eindeutig definiert werden, damit keine Unklarheit darüber besteht, was das Sample eigentlich repräsentiert.
    b) Eine Grundgesamtheit, die aus vielen kleinen Einheiten besteht, eignet sich besser als eine, die aus einer geringeren Anzahl größerer Einheiten besteht.
    c) Einmal ausgewählt kann eine Einheit, die zufällig bestimmt wurde, nur auf die Gefahr hin ausgelassen werden, eine Verzerrung eintreten zu lassen. Lässt man z.B. Fragebögen von Personen aus, die nicht zu Hause sind, wenn der Interviewer sie befragen will oder die Befragung ablehnen, so hat dies ebenfalls eine Abweichung vom Random-Prinzip zur Folge.
    Die effektive Auswahl der Einheiten kann auf unterschiedliche Weise erfolgen: Voraussetzung für ein random sample ist jedenfalls eine symbolische Repräsentanz der Grundgesamtheit (Liste, Datei u.ä.) (a) Von einer reinen Zufallsauswahl spricht man dann, wenn jedes einzelne Element der Stichprobe unabhängig durch einen Zufallsprozess aus der Erhebungsgesamtheit gezogen wird. Dieser Typ einer Zufallsauswahl wird auch als Lotterieprinzip oder Monte-Carlo-Verfahren bezeichnet. (b) Bei einer systematischen Zufallsauswahl wird nur der erste zu ziehende Fall zufällig bestimmt, etwa durch Würfeln oder durch Herausgreifen einer Zufallszahl aus einer entsprechenden Tabelle. Alle weiteren in die Stichprobe kommenden Elemente werden systematisch bestimmt. Allerdings besteht dabei die Gefahr einer systematischen Verzerrung (Verstoß gegen das Zufallsprinzip) immer dann, wenn die Kartei systematisch organisiert ist und das Auswahlsystem-Elemente des Karteiordnungssystems enthält: etwa bei einer Karteiordnung nach Familiennamen u.ä. (c) Bei einer Gebietsauswahl wird der Auswahlplan nicht auf eine Personenliste als symbolische Repräsentation der Grundgesamtheit angewandt, sondern stattdessen auf solche räumlichen Einheiten, die geeignet sind, die interessierenden Erhebungseinheiten zu bestimmen. Auswahleinheiten sind dann definierte und abgegrenzte Gebiete, auf denen Personen wohnen. Auswahlgrundlage können dann etwa Landkarten oder Stadtpläne sein.
     
    Bei der Verwendung eines Randomverfahrens ist es nicht notwendig, vorher etwas über spezielle Merkmale der Grundgesamtheit oder deren Verteilung zu wissen. Die Notwendigkeit, die Grundgesamtheit vollständig zu katalogisieren und dann das Sample zu ziehen, verhindert jedoch oft seine Verwendung. Eine Liste, die alle Einheiten umfasst, auf die sich das Sample bezieht, steht oft nicht zur Verfügung. Bei regional sehr weit gestreuten Grundgesamtheiten ist das Verfahren mühsam und aufwendig; die zufällig ausgewählten Erhebungseinheiten können sehr weit gestreut und auf ein großes Gebiet verteilt sein; die Erhebung erfordert dementsprechend viel Zeit und Geld.
     
    Geschichtete Zufallsauswahl
    Um die genannten Nachteile auszuräumen, wurden Verfahren der geschichteten Zufallsauswahl entwickelt. Für solche komplexen Auswahlverfahren wird nicht mehr die Forderung aufrecht erhalten, jede Einheit muss die gleiche Chance haben, in die Auswahl aufgenommen zu werden. Die abgewandelte Forderung lautet: Jede Einheit muss eine bekannte Chance haben, gezogen zu werden.
     
    Ausgangspunkt für die Konstruktion einer geschichteten Auswahl ist die im Hinblick auf die angestrebte Aussage der Untersuchung bestehende Absicht, die Stichproben auch getrennt für bestimmte Gruppen von Fällen auszuwerten. In solchen Fällen ist es sinnvoll, schon bei der Auswahl sicherzustellen, dass diese Gruppen in der Stichprobe zuverlässig repräsentiert sind. Zu diesem Zweck teilt man die Grundgesamtheit in mehrere Teil-Grundgesamtheiten auf. Für geschichtete Auswahlen gilt daher die Aussage nicht mehr, die für einfache Zufallsauswahlen gemacht wurde: nämlich dass Kenntnisse über die Grundgesamtheit nicht erforderlich seien.
    Gilt für jede der definierten Teilgesamtheiten der gleiche Auswahlsatz, dann spricht man von einer proportional geschichteten Stichprobe: Die Anteile der Gruppen in der Stichprobe sind exakt so groß wie die Anteile in der Grundgesamtheit. Der Vorteil gegenüber der einfachen Wahrscheinlichkeitsauswahl besteht darin, dass die Anteilswerte - der für die Auswertung bedeutsamen Gruppen - exakt mit den Werten der Grundgesamtheit übereinstimmen und nicht abweichen.
    Häufig ist es jedoch sinnvoll, Personengruppen mit nur geringem Anteil in der Grundgesamtheit stärker in der Stichprobe zu repräsentieren als Personengruppen mit hohem Anteil an der Grundgesamtheit. Für eine gruppenweise getrennte Auswertung der Daten ist nämlich ein bestimmte Fallzahl erforderlich. Diese Form nennt man disproportionale geschichtete Zufallsauswahl.
     
    Als Schichtungsmerkmale wählt man - ähnlich wie bei der Quoten-Auswahl - solche, die mit dem Untersuchungsgegenstand in Beziehung stehen. Dabei ist es wichtig, dass die Informationen über die Schichten in der Grundgesamtheit einen aktuellen Stand aufweisen. Kurz nach einer Volkszählung ist es relativ leicht eine geschichtete Auswahl durchzuführen, da die Zahlen dieser Anforderung gut entsprechen. Wenn die letzte Volkszählung u.U. hingegen mehrere Jahre zurückliegt, dann läuft man Gefahr, die Größe der einzelnen Schichten völlig falsch einzuschätzen. Weiters sollte man nur Schichten verwenden, die genügend groß sind, so dass beim Sample keine erheblichen Schwierigkeiten auftreten auch die entsprechenden Personen ausfindig zu machen. Von der Regel macht man verständlicherweise dann eine Ausnahme, wenn die Merkmale der vorgesehenen Schicht den Gegenstand der Untersuchung bilden.
     
    Klumpenauswahl (cluster sampling)
    Häufig ist die Befragung vereinzelter (isolierter) Personen oder Haushalte nicht geeignet, Informationen für ein angemessenes theoretisches Modell sozialer Wirklichkeit zu liefern. In der Realität lebt jede Person in einem sozialen und räumlichen Kontext, in dem Personen mannigfache Handlungs- und Interaktionsbezüge unterhalten. Bezieht sich das Auswahlverfahren nicht auf einzelne Untersuchungseinheiten, sondern auf Teilkollektive, Schulklassen, Arbeitsgruppen ( in denen dann über jedes einzelne Mitglied dieses Kollektivs Informationen erhoben werden), dann spricht man von Klumpenauswahl. Dieser etwas eigenartige Ausdruck ist die Folge einer allzu wörtlichen Übersetzung der englischen Bezeichnung cluster-sample (cluster = Gruppe, Gebilde, aber auch Klumpen).
    Der Auswahlvorgang bei der Klumpen-Stichprobe orientiert sich also nicht an den Untersuchungseinheiten, sondern an den Klustern, den Klumpen von Erhebungseinheiten. Grundsätzlich spricht man nur dann von Klumpenauswahl wenn nicht die Klumpen selbst (z.B. Schulklassen) die Erhebungseinheiten sind, sondern die Bestandteile der Klumpen (einzelne Schüler). Klumpenauswahlen können dabei sowohl als Kartei- wie auch als Gebietsauswahl konstruiert werden (siehe Abschnitt: Einfache Zufallsauswahl).
     
     
    4.4 Forschungsformen
    4.4.1 Experiment
     
    In der Logik des empirisch-analytischen Ansatzes stellt die Theorie- und Hypothesenüberprüfung den eigentlichen Zweck empirischen Forschens dar. Im Vordergrund steht dabei, das Anliegen einer Kausalanalyse von Forschungsfragen. Das Experiment stellt das Design der Wahl bei jeder Form einer Kausalanalyse dar, d.h. bei Fragestellungen des Typs: Wie und in welcher Stärke wirkt sich X (als Ursache) auf Y (als Folge) aus? Dabei führt man unter kontrollierten Bedingungen (Untersuchungssituation), die von allen externen Einflüssen weitgehend abgeschirmt ist, eine Maßnahme (Treatment) durch. Danach beobachtet er welchen Effekt die Maßnahme auf seine Untersuchungsobjekte hatte, d.h. welche Wirkungen eintreten. Wird in einer Versuchsreihe das Treatment systematisch variiert, während alle sonstigen Bedingungen konstant bleiben, kann aus dem Zusammenhang von variierendem Treatment und in Abhängigkeit davon variierendem Effekt das Ursache-Wirkungs-Prinzip differenziert ausformuliert werden.
     
    Experiment: planmäßige Beobachtung bestimmter Sachverhalte und ihrer Veränderungen unter vom Forscher kontrollierten und variierten Bedingungen. Das E. unterscheidet sich u.a. dadurch von anderen Beobachtungsformen, dass die beobachteten Vorgänge durch den Forscher hervorgerufen, hergestellt werden. Der Ablauf der E.s ist jeweils in einem Versuchsplan festgelegt (Lexikon der Soziologie).
    Im Mittelpunkt des klassischen Experiment steht das Bemühen für die Datenerhebung Bedingungen zu schaffen, in denen nur das Ursache-Wirkungs-Prinzip zwischen Maßnahme und Effekt zur Geltung kommen kann. Zum anderen ist Vorsorge zu treffen, dass die Art und die Stärke der vermuteten Kausalwirkung eindeutig festgestellt und in gültiger Weise gemessen werden können.
     
    Die erste Anforderung ist dadurch erfüllt, dass die als (mögliche) Ursache angenommene Einflussgröße (Maßnahme, Treatment, Stimulus) vom Forscher kontrolliert in die Untersuchungssituation eingeführt wird und alle sonstigen, im Prinzip denkbaren Einflussgrößen weitestgehend abgeschirmt oder in anderer Weise unwirksam gemacht werden können. Die zweite Anforderung ist dann erfüllt, wenn parallel zur Experimentalsituation eine geeignete Vergleichssituation existiert, in der die (angenommene) Ursache nicht wirkt, die jedoch in allen anderen Aspekten mit der Experimentalsituation identisch ist.
     
    Laborexperiment
    Als Prototyp des sozialwissenschaftlichen Experiments ist das Labor-Experiment anzusehen. Hierfür gilt im günstigsten Fall, dass die Auswirkungen möglichst aller Randbedingungen mit Ausnahme des experimentellen Stimulus bekannt sein sollten, so dass die Äquivalenz von Versuchs- und Kontrollgruppe angenommen werden kann. Im Falle sozialwissenschaftlicher Experimente mit Menschen als Untersuchungsobjekten (in der Psychologie als Versuchspersonen bezeichnet) zeichnet sich das Design eines echten Experiments durch folgendes Merkmal aus:
    Es existiert eine Experimentalgruppe G1, die dem Treatment (experimenteller Stimulus), also der auf ihre Auswirkung hin zu untersuchenden Maßnahme ausgesetzt wird.
    Es existiert eine in allen wesentlichen Merkmalen äquivalente Kontrollgruppe G2, die dem Treatment nicht ausgesetzt wird.
    In beiden Gruppen werden vor dem Zeitpunkt des Treatments und danach die Ausprägungen der abhängigen Variablen (= Der Merkmale, bei denen man Auswirkungen durch das Treatment erwartet) gemessen.
    Stimmen vor dem Treatment in der Experimental- und in der Kontrollgruppe die Verteilungen der abhängigen Variablen überein und sind nach dem Treatment Unterschiede zwischen den Gruppen feststellbar, dann werden diese Unterschiede als Effekte des Treatments interpretiert.
     
    Das Zweigruppendesign (G1 und G2) kann noch um zwei weitere Gruppen (eine Versuchs- und Kontrollgruppe G3 und G4) erweitert werden, in denen man auf die Messung vor dem Treatment verzichtet. Dadurch wird kontrolliert, ob nicht allein schon durch die Messung vor dem Treatment Veränderungen in Gang gesetzt wurden. Für Untersuchungsgegenstände, bei denen in verschiedenen Gruppen jeweils unterschiedliche Auswirkungen der gleichen Maßnahmen erwartet werden, kann außerdem das Design auf eine größere Anzahl von Experimental- und zugeordneten Kontrollgruppen ausgeweitet werden.
    Die Voraussetzung, dass man hinreichend empirisch bestätigte Kenntnisse hat, um vollständig kontrollierte Experimente durchzuführen, ist allerdings oft nicht gegeben. Daher macht man sich auch in sozialwissenschaftlichen Experimenten den Vorteil des kontrollierten Zufallsprinzips zunutze, der darin besteht, auch (noch) unbekannte Merkmale in einer nicht einseitig verzerrenden Weise zu repräsentieren: Die Versuchspersonen werden dazu zufällig auf Versuchs- und Kontrollgruppe verteilt. Dieses Vorgehen wird Randomisierung genannt. Und darf nicht mit einer Zufallsauswahl der Versuchspersonen verwechselt werden. Die Randomisierung im Experiment setzt eine Ebene tiefer ein: Sobald eine genügende Anzahl von Personen gefunden ist, werden diese zunächst hinsichtlich derjenigen Merkmale, die für den Ausgang des Experiments als bedeutsam gelten (Alter, Geschlecht u.ä.) vorgruppiert (=geschichtet). Danach entscheidet ein Zufallsverfahren, welche Personen aus jeder Schicht der Experimentalgruppe und welche der Kontrollgruppe zugewiesen werden. Auf diese Weise erreicht man zweierlei: zum einen die Bildung von unmittelbar äquivalenter Versuchs- und Kontrollgruppe hinsichtlich der Schichtungsmerkmale, zum anderen durch das zufällige Zuweisen (Randomisieren) die Kontrolle systematischer Ergebnisverzerrungen durch Faktoren, die dem Forscher vorab nicht bekannt sind.
    Geschildert wurde bisher das Design echter Experimente. Die entsprechenden Bedingungen sind eigentlich nur im Labor herstellbar. Laborexperimente haben jedoch den Nachteil, im allgemeinen ausgesprochen realitätsfern zu sein. In ihnen wird eine künstliche Situation hergestellt, in der nur ein einziges Merkmal in kontrollierter Weise wirksam wird und alle anderen möglichen Einflussgrößen ausgeblendet werden. Dies widerspricht fast allen realen sozialen Situationen, die ja gerade dadurch charakterisiert sind, das praktisch alles mit allem zusammenhängt. Ideal geeignet sind solche Labor-Untersuchungssituationen für Fragestellungen, die den isolierten Einfluss einer einzigen Variablen für den idealtypischen Fall nachweisen wollen, dass alle übrigen Bedingungen gleich bleiben, selbst wenn dieser Fall in der Realität nie eintritt.
     
    Feldexperiment
    Für andere - insbesondere anwendungsorientierte - Fragestellungen dagegen ist die Realitätsferne ein kaum akzeptabler Nachteil. Anstelle von Laborforschung wird für solche Zwecke Feldforschung zu betreiben sein. Ihr Ziel ist es soziale Prozesse und Strukturen, wie sie unabhängig vom wissenschaftlichen Forschungsprozess bestehen, zu erfassen und zu analysieren. Versuchen die Forscher dabei, in systematischer Weise die Bedingungen einer gegebenen Feldsituation zu kontrollieren und die für die Untersuchung relevanten Variablen gezielt zu manipulieren, orientieren sie sich am Konzept des Feldexperimentes. Feldexperimente verfolgen das Ziel, die Logik des klassischen Experimentes auch auf Untersuchungsanordnungen im sozialen Feld zu übertragen und dort zu realisieren. Diese ist in realen Situationen jedoch fast niemals in vollem Umfang möglich. Beispielsweise wird im allgemeinen nicht für wissenschaftliche Zwecke in die soziale Realität eingegriffen, vielmehr muss die Forschung sich an Situationen anhängen, in denen im Rahmen des normalen sozialen Handelns Veränderungen in Gang gesetzt werden. In solchen Situationen wird Forschung dann auch oftmals nur geduldet; keinesfalls erhält sie eine federführende Rolle bei der Gestaltung der von ihr untersuchten sozialen Realität.
     
    Versuchsplan (engl. experimental design): Versuchsanordnung, Bezeichnung der experimentellen Forschung für die Planung der Durchführung von Experimenten. Der V. beinhaltet insbesondere, in welcher Form der Einfluss eines oder mehrerer Treatments auf eine zu beeinflussende (abhängige) Variable geprüft wird, welche Variablen zu kontrollieren sind, an welchen Stellen des Experiments Messungen vorgenommen werden, in welcher Form Versuchspersonen ausgewählt und über die verschiedenen Bedingungen im Experiment verteilt werden (Lexikon der Soziologie).
    Insbesondere wäre die Erwartung unrealistisch, Versuchs- und Kontrollgruppen nach der von Forschung vorgegebenen Kriterien zusammenzusetzen und/oder nach dem Zufallsprinzip zu bilden. In manchen Fällen wird es überhaupt nicht möglich sein über direkte Kontrollgruppen zu verfügen. Häufig ist es auch nicht möglich Vorher-Messungen wichtiger Variablen durchzuführen. Besondere Probleme verursachen die Kontrolle der Treatments sowie die Abschirmung der übrigen Einflussgrößen.
    Für nicht erfüllbare Bedingungen des echten Experiments wird man bestrebt sein, Ersatzlösungen zu finden, die nach Möglichkeit die gleiche Funktion erfüllen: Anstelle äquivalenter Kontrollgruppen kann man versuchen, Vergleiche mit Situationen durchzuführen, in denen die untersuchten Maßnahmen nicht durchgeführt werden, in denen die übrigen relevanten Situationsmerkmale jedoch ähnlich sind. Anstelle expliziter Vorher-Messungen bei den Versuchspersonen, kann man Daten aus früheren Zeiträumen heranziehen. Sind externe Einflüsse auf die Effekte des untersuchten Programms nicht abzuschirmen, müssen diese externen Einflussgrößen ebenfalls gemessen werden, um sie bei der Auswertung der gesammelten Daten berücksichtigen zu können.
    Untersuchungsanordnungen, die sich an der Experimentallogik orientieren, jedoch nicht alle Bedingungen des klassischen Experiments erfüllen können, werden als Quasi-Experimente bezeichnet.
     
    Versuchsplanung
    Bei der experimentelle Forschung ist die Planungsphase die eigentlich entscheidende Phase. Durchführung und Auswertung sind dann weitgehend festgelegt. Die Planung des Experimentes erfordert, dass der Experimentator zunächst eine Versuchssituation findet, in der die Treatmentbedingung - operationalisiert als unabhängige Variable - manipulierbar ist, und für die abhängige Variable ein geeignetes Messinstrument gefunden werden kann. Wenn eine geeignete Versuchsanordnung gefunden ist, muss als nächstes der Versuchsplan im engeren Sinn festgelegt werden: Dabei wird entschieden, welche experimentellen Bedingungen einbezogen werden, d.h. welche unabhängigen Variablen in wieviele Stufen variiert werden oder wie die Versuchspersonen den experimentellen Bedingungen zugeordnet werden. Die folgende Beschreibung der Formen für Experimente mit einer unabhängigen Variablen soll grundsätzliche Aspekte der Versuchsplanung verdeutlichen. Auf die Behandlung von Versuchsplänen mit mehreren unabhängigen Variablen sei auf die weiterführende Literatur z.B. ROTH (1984) verwiesen.
     
    (a) Unabhängige Gruppen
    Die einfachsten Versuchspläne enthalten nur eine unabhängige Variable. Zwei oder mehr Bedingungen, z.B. zwei Therapievarianten und eine unbehandelte Kontrollgruppe sollen in ihren Mittelwerten, z.B. hinsichtlich der vegetativen Labilität am Ende einer Behandlungsperiode, verglichen werden. Die Hauptvorteile eines solchen Designs mit nur einer unabhängigen Variablen sind:
     
    a) Der Versuchsplan ist einfach und robust
    b) Die Zahl der Versuchspersonen in den einzelnen Versuchsgruppen (= Personengruppen, die unterschiedlichen Therapievarianten behandelt wurden) muss nicht gleich groß sein.
    c) Gehen zufällig Messwerte verloren, so können die übrigen ohne Schaden verwertet werden.
    Der Nachteil eines Versuchsplanes mit unabhängigen Gruppen, besteht darin, dass der erforderliche Stichprobenumfang recht groß werden kann. Das gilt besonders dann, wenn keine gerichteten Hypothesen bestehen, die Varianz innerhalb der Gruppen groß und die Effektstärke mittel oder klein ist.
     
    (b) Parallelisierte Gruppen
    Durch Parallelisierung der Versuchsgruppen soll erreicht werden, dass die Versuchsgruppen sich in einem oder in mehreren relevanten Merkmalen genau entsprechen. In dem oben genannten Beispiel des Vergleiches von Therapiebedingungen (zwei Therapiearten, eine Kontrollgruppe) wäre es. z.B. sinnvoll, die Gruppen nach der Ausgangslage (z.B. gemessen mit verschiedenen Fragebögen) zu parallelisieren. Bei einem Lernexperiment zum Vergleich von Unterrichtsmethoden könnte man Vorkenntnisse, Schulleistungen in bestimmten Fächern, aber auch Motivationsvariablen zur Parallelisierung heranziehen. Kurz: Alles, was mit der abhängigen Variablen (Therapieerfolg, Lernerfolg) korreliert, kann eine sinnvolle Parallelisierungsvariable sein.
    Die Parallelisierung wird durchgeführt, indem man zunächst von allen Versuchspersonen die Variable erhebt, nach der parallelisiert werden soll. Das erfordert in der Regel eine eigene Vortest-Sitzung. Für k (=Anzahl) experimentelle Bedingungen benötigt man k parallelisierte Gruppen. Man sucht aus dem Datenmaterial jeweils k Versuchspersonen mit gleichen Vortestwerten heraus. Diese k Versuchspersonen werden dann nach dem Zufall auf die k experimentellen Bedingungen verteilt. Danach wird der eigentliche Versuch durchgeführt.
    Der Hauptvorteil von parallelisierten Gruppen besteht in der benötigten kleineren Stichprobengröße gegenüber einem Versuchsplan mit unabhängigen Gruppen. Dem stehen folgende Nachteile gegenüber: Vor dem Beginn des eigentlichen Versuchs müssen von allen Versuchspersonen Werte für die Parallelisierungsvariablen erhoben und ausgewertet werden. Das erfordert in der Regel nicht nur eine eigene Vortest-Sitzung, sondern führt bei zeitlich lang erstreckter Versuchspersonen-Anwerbung leicht zu organisatorischen Problemen.
     
    (c) Messwiederholung derselben Versuchspersonengruppe
    Versuchspersonen zu beschaffen ist meist schwierig. Daher liegt es nahe, eine Versuchsperson für mehr als eine experimentelle Bedingung heranzuziehen. Wird z.B. der Einfluss der Rückmeldungsart (richtig, falsch und keine Rückmeldung) auf das Erlernen von Listen von Wortpaaren untersucht, so könnte man daran denken, jede Versuchsperson drei Listen, je eine unter einer der drei Rückmeldungsarten lernen zu lassen.
    Die Vorteile liegen auf der Hand: Es werden wesentlich weniger Versuchspersonen benötigt als bei den beiden vorangegangenen Formen der Versuchsplanung. Es wird keine zusätzliche Sitzung benötigt (wie bei parallelisierten Gruppen).
    Der Messwiederholung an derselben Versuchspersonengruppe stehen jedoch oft inhaltliche Gründe entgegen. Im Laufe länger dauernder Versuchssitzungen verändert sich die Versuchsperson: Sie gewöhnen sich an die Situation, an die Aufgabe, zeigen Übungsfortschritte, Ermüdungserscheinungen. Im Versuchsplan ist dafür zu sorgen, dass diese Effekte nicht mit den experimentellen Bedingungen kollidieren.
     
    4.4.2 Evaluationsforschung
     
    Im alltäglichen Sprachgebrauch bedeutet der Begriff Evaluation nichts weiter als bewerten. Im wissenschaftlichen Kontext bezeichnet er zum einen eine spezifische Fragestellung: Ein bestimmter Sachverhalt oder ein bestimmtes Handeln soll nach vorgegebenen Kriterien mit Hilfe empirischer Informationen bewertet werden. Zum anderen aber bezeichnet er auch eine spezifisches Design: Die zu evaluierenden Handlungen, die durchgeführten Maßnahmen sowie die eingesetzten Instrumente nennen wir Programm. Es werden Rand- oder Rahmenbedingungen in bestimmter Weise verändert und die dadurch beabsichtigterweise hervorgerufenen Effekte kontrolliert. Auch hier werden zunächst vor Programmbeginn zum Zeitpunkt t0 der Ist-Zustand von Zielvariablen erfasst. Das Design hat schließlich zu sichern, dass der Zustand der Zielvariablen nach der Programmdurchführung also zum Zeitpunkt t1, wiederum empirisch beschrieben wird, so dass Art und Ausmaß der Veränderungen feststellbar sind. Der eigentliche Bewertungsteil der Evaluationsforschung besteht also darin, anhand der festgestellten Effekte den Erfolg eines Programms, seine Effektivität abzuschätzen.
    Als erfolgreich gilt ein Programm dann, wenn die getroffenen Maßnahmen die Zielvariablen in der gewünschten Richtung und in der gewünschten Stärke beeinflussen. Evaluation darf sich jedoch nicht auf den Nachweis des Eintretens beabsichtigter Effekte beschränken. In der Regel werden auch nicht-beabsichtigte Effekte zu beobachten sein. Diese wiederum können von positiver oder negativer Art sein. Bei Ausbleiben des Erfolges eines Programms sollen auch Möglichkeiten zur Verbesserung eines Programms ableitbar sein.
     
    Typen von Evaluation:
    a) Wirkungsanalysen: Hier stehen die Effekte, die von den Maßnahmen eines Programms hervorgerufen werden im Vordergrund.
     
    b) Implementationsforschung: Hier richtet sich der Blick nicht schwerpunktmäßig auf die Effekte, sondern vor allem auf Aspekte der Umsetzung und des Vollzuges eines Programms.
     
    c) Akzeptanzforschung: Von Interesse kann auch sein, ob und in welcher Weise die von einem Handlungsprogramm gebotenen Leistungen von der Zielgruppe, für die diese Leistungen erstellt werden, in Anspruch genommen werden und ob das Angebot auf Zustimmung oder Ablehnung stößt.
     
    d) Begleitende Evaluation: Hier gibt es regelmäßige Rückkoppelungen von Zwischenergebnissen in das Projekt. Hat die Forschung Konsequenzen für den Verlauf des Projektes, wirkt sie programmformend, dann nennt man sie formative Evaluation. Eine erst am Ende oder gar nach Abschluss eines Projektes durchgeführte Evaluation verzichtet explizit auf formative Effekte. Sie gibt vielmehr im nachhinein ein zusammenfassendes Evaluationsgutachten ab; man spricht dann von summativer Evaluation.
     
     
    4.4.3 Das Survey-Modell
     
    Das Experiment stellt den Königsweg methodisch kontrollierter Gestaltung der Untersuchungssituation dar. Im folgenden geht es nun um den Forschungsalltag und zugleich um die allgemeinste und methodisch umfassenste Untersuchungsanordnung: um das Design der Erhebung (engl. survey) und Analyse empirischer Informationen zur Beschreibung eines interessierenden sozialen Sachverhaltes.
    Ziele von Surveystudien im Feld können sein:
    als Basis für eine zu treffende Entscheidung empirisch gesicherte aktuelle Erkenntnisse über den in Frage stehenden Gegenstand erhalten
    bei unvorhergesehenen gesellschaftlichen Veränderungen umfassende Informationen zur Beurteilung und zum Verständnis dieser Entwicklung gewinnen
    einen noch relativ unbekannten empirischen Sachverhalt durch eine möglichst breit angelegte Deskription zu erkunden
    in regelmäßigen Abständen die Informationen über wichtige Teilbereiche der Gesellschaft zu aktualisieren
    zu aktuellen politischen und /oder gesellschaftlichen Themen das Meinungsbild in der Bevölkerung erheben
     
    Der Geltungsbereich empirischer Deskriptionen kann entweder auf die untersuchten Fälle (Fallstudien) sogar auf den untersuchten Fall (Einzelfallstudien) beschränkt sein. Die Absicht kann aber auch sein, die Befunde über die untersuchten Fälle hinaus zu verallgemeinern: etwa bei gesellschaftlichen Dauerbeobachtungen. Die Befunde sollen repräsentativ sein für eine über die untersuchten Fälle weit hinausreichende Grundgesamtheit.
     
    Feldforschung (engl. field study): Untersuchung natürlicher Lebenssituationen (Schulen, Betriebe etc.). In der F. werden in der Regel vom Forscher keine Eingriffe zur Beeinflussung von unabhängigen Faktoren vorgenommen, sondern er registriert vorliegende Verhaltensweisen und Beziehungen und versucht diese mit Hilfe anderer Beobachtungen zu erklären (Lexikon der Soziologie).
    Während beim Experiment die Fragestellung durch die zu prüfende Hypothese von vornherein klar definiert ist, erfordern Surveystudien umfassende Konzipierungsaufgaben: So müssen in etwa konzeptionelle Vorleistungen erbracht werden (Problemeingrenzung, Exploration). Diese sollen in ein Modell des Untersuchungsgegenstandes einmünden, das sowohl dem Gegenstand selbst als auch dem Verwendungszweck der Studie gerecht wird und das zudem durch empirische wie theoretische Vorkenntnisse hinreichend abgesichert ist, um weder bei wichtigen Aspekten Lücken entstehen zu lassen noch Unnötiges und Irrelevantes zu erfassen. Darüber hinaus sollen im Idealfall auch Surveystudien Ansätze für die Weiterentwicklung sozialwissenschaftlicher Theorien bieten, sie sollen nicht rein deskriptiv, sondern zugleich theoretisch relevant sein.
     
    Ein Sonderfall :Ex post facto Untersuchung
    Auch in Surveystudien kann sich die Aufgabe stellen, kausale Analysen zum Forschungsgegenstand leisten zu müssen. Diese bezeichnet man als sogenannte ex post facto Studien. Hier kann man jedoch nicht wie bei Experimenten gezielt Personen bestimmten Gruppen zuweisen oder Treatments variieren, da bei diesem Design - in der Logik des Experiments formuliert - die unabhängige Variable schon aufgetreten ist. Die wörtliche Bedeutung dieser Bezeichnung ist nachträglich aus dem bereits Geschehenen. Wenn man z.B. im Rahmen einer Surveystudie die Verbreitung jugendlichen Drogenkonsums erhebt und gleichzeitig etwas über die Ursachen der Entstehung bestimmter Missbrauchsformen erfahren möchte, sind die ursächlichen (auslösenden) Faktoren (=unabhängige Variable) im Rahmen der Biographie der befragten Jugendlichen schon wirksam gewesen. Nachträglich werden nun über z.B. Erhebungsmethoden Rückschlüsse auf die kausale Bedeutung von bereits Geschehenem (z.B. Ereignisse in der Biographie der Jugendlichen u.ä.) für die Ausprägung der abhängigen Variablen (hier Drogenmissbrauch) gemacht. Die kausale Beziehung der Variablen kann jedoch nicht so wie im Experiment exakt nachgewiesen werden. Der wichtigste Unterschied zwischen beiden Formen liegt also in der fehlenden Möglichkeit der Kontrolle der unabhängigen Variablen. Bei einem ex post facto Design muss man die Dinge so hinnehmen, wie sie sind. Ex post facto Forschung hat also aus der Sicht der experimentellen Vorgehensweise also die prinzipielle Schwäche der mangelhaften Kontrolle der unabhängigen Variablen. Ein großer Teil vor allem erziehungswissenschaftlicher aber auch soziologischer Studien sind ex post facto-Untersuchungen.
     
    4.4.4 Einzelfallforschung
     
    Unter dem Begriff der Einzelfallstudie wird jener Bereich verstanden, der ein einzelnes Element ("Untersuchungseinheit") zum Gegenstand der Analyse macht. Ausgangspunkt einer Einzelfallstudie bildet somit jeweils eine Untersuchungseinheit, wobei folgende Bereiche als Einheit angesehen werden können:
     
    a) Personen
    b) Gruppen, Kulturen
    c) Gesellschaften u.ä.
    Sowohl in der pädagogischen als auch in der psychologischen Forschung haben Einzelfalluntersuchungen eine lange Tradition (z.B. von EBBINGHAUS 1885 bei seinen Studien zur Erforschung des Gedächtnisses verwendet). Die Bedeutung von Einzelfalluntersuchungen im context of discovery (REICHENBACH) wird heute nicht mehr ernstlich bestritten.
     
    Einzelfallstudie (engl. case study): Untersuchungsform, die in der detaillierten Analyse einzelner Untersuchungseinheiten (Individuen, Gruppen, Institutionen u.a.) besteht. Das Ziel der E. ist, genaueren Einblick in das Zusammenwirken einer Vielzahl von Faktoren (etwa in die Biographien von Kriminellen) zu erhalten, wobei sie meist auf das Auffinden und Herausarbeiten typischer Vorgänge gerichtet ist. Eine E. wird häufig zur Vorbereitung oder als Ergänzung größerer Untersuchungen eingesetzt (Lexikon der Soziologie).
    Einzelfallforschung definiert sich darüber welche Bedeutung und welcher Stellenwert dem einzelnen Fall im Erkenntnisprozess und somit der Induktion zugewiesen wird, somit der Stellenwert, der dem Einzelfall in der Sozialforschung und damit dem Allgemeinen bzw. dem Besonderen zugebilligt wird. Wird das Allgemeine dem Besonderen gegenübergestellt, dann liegt der Stellenwert der Fallanalyse in der Beschaffung von Hypothesen zu Beginn einer Forschung, die auf Generalisierung auf der Basis statistischer Repräsentativität angelegt ist (Hypothesengenerierungs-Modell). Umgekehrt und geradezu in Gegenbewegung zu dieser Position lassen sich Fallanalysen finden, in denen von allgemeinen Aussagen abgesehen wird. Es wird statt dessen die Auffassung vertreten, dass der Einzelfall sich selbst genüge (Sozialreportage-Modell). Daneben entwickelte sich in der modernen Klinischen Psychologie eine auch empirisch-analytische Tradition der Einzelforschung.
     
    4.5 Methoden der Datenerhebung
    4.5.1 Befragung und Interview
     
    In der Praxis der empirischen Sozialforschung spielen Interview- und Befragungstechniken (als schriftliche Form des Interviews) in vielfältigen Varianten eine große Rolle; sie stellen bei den meisten erziehungswissenschaftlichen Forschungsprojekten die Methode der Datenerhebung dar.
     
    Interview: Methode der empirischen Sozialforschung zur Erhebung von Daten, bei der ein (geschulter) Interviewer im direkten Kontakt mit einem zu Interviewenden mündliche Fragen stellt, um in kontrollierter Weise Informationen zu gewinnen (Lexikon der Soziologie).
    Das Wort Interview kommt aus dem anglo-amerikanischen und konnte sich im 20. Jahrhundert auch im deutschen Sprachraum durchsetzen. Es stammt eigentlich vom französischen entrevue ab und bedeutet sinngemäß verabredete Zusammenkunft bzw. sich kurz begegnen. Alltagssprachlich ist der Begriff Interview besonders im Journalismus geläufig. Dort ist ein Interview ein Gespräch eines Journalisten mit einer Person zum Zwecke der publizistischen Verwertung. Obgleich diese Definition noch nicht einer sozialwissenschaftlichen genügt, sind die ihr immanenten Vorstellungsinhalte auch in einer wissenschaftlichen Begriffsbestimmung enthalten: das Interview ist nämlich eine Gesprächssituation, die bewusst und gezielt von den Beteiligten hergestellt wird, damit der Interviewer eine Fragen stellt, die vom anderen beantwortet wird. Diese Asymmetrie in der Frage-Antwort-Zuweisung ist für viele Formen des Interviews bestimmend.
     
    4.5.1.1 Einteilungsgesichtspunkte
     
    Bei MAYRING findet sich ein differenziertes und zur Klassifizierung gut geeignetes Kategoriensystem zur Charakterisierung unterschiedlichster Formen von Interview- und Befragungstechniken. Folgende zentrale Einteilungsgesichtspunkte werden dabei als Dimensionen der Differenzierung von Befragungen genannt:
     
    a) Intention des Interviews/ der Befragung
    b) Standardisierung
    c) Struktur der zu Befragenden
    d) Form der Kommunikation
    e) Stil der Kommunikation
     
    Intention des Interviews/der Befragung
    Ein für KOOLWIJK wichtiges Unterscheidungskriterium für Interviewtechniken ist die beabsichtigte Richtung des Informationsflusses. Er differenziert im Hinblick auf die Intention der Befragung ermittelnde Interviews, bei denen der Befragte als Träger abrufbarer Informationen verstanden wird und andererseits vermittelnde Interviews, bei denen die Befragungsperson als Ziel einer informatorischen (= zu informierenden) oder beeinflussenden Kommunikation begriffen wird. Im letzten Fall ist nicht der Informationsfluss vom zu Befragenden zum Interviewer Gegenstand des Interviews sondern Absicht ist, eine Erkenntnis- oder eine Bewusstseinsveränderung auf Seiten des Befragten zu provozieren (Handlungsforschung).
     
    Interview, offenes: auch Tiefeninterview, freies, nichtgelenktes oder Intensivinterview. Sonderform des mündlich-persönlichen Interview, bei dem die Interaktion zwischen Interviewer und Interviewten frei von Anweisungen erfolgt. Unter Verwendung psychoanalytischer Fragetechniken wird das o.I. oft zu personalbezogenen Motivforschung, wobei Repräsentativitätsgesichtspunkte keine Rolle mehr spielen können (Lexikon der Soziologie).
     
    Standardisierung
    Eine weitere Dimension der Klassifikation von Befragungen ist der Grad der Standardisierung. Diese Dimension ist für die Differenzierung zwischen qualitativen und quantitativen Formen der Befragung konstitutiv und wird im Abschnitt zum quantitativen Interview ausführlich dargestellt. Hingewiesen sei hier auf den Umstand, dass eine wissenschaftliche Befragung durchaus in Form von Alltagskommunikation durchgeführt werden kann, wobei Fragen und Antworten sich gegenseitig bedingen und ein mehr oder weniger symmetrischer Gesprächsverlauf zu verzeichnen ist.
     
    Interview, standardisiertes: spezielle Form des Interviews, bei der alle Einzelheiten des Frage- und Reaktionsverhaltens genau festgelegt sind, um die maximale Vergleichbarkeit von Daten zu erreichen, die von verschiedenen Interviewern erhoben wurde. Eignet sich besonders gut zu Überprüfung von Hypothesen (Lexikon der Soziologie).
     
    Struktur der zu Befragenden
    Qualitative Formen des Interviews können auch nach der Struktur der zu Befragenden klassifiziert werden. Bei dichotomer Betrachtung wäre die Einzel- von der Gruppenbefragung zu unterscheiden. Während Gruppendiskussion und Einzelbefragungen qualitativ orientiert sein können, sind reine Gruppenbefragungen, bei qualitativer Methodologie praktisch ausgeschlossen. Umgekehrt kann man sagen, dass qualitative Interviews in der Regel Einzelbefragungen sind.
     
    Form der Kommunikation
    Ein weiteres Kriterium bei der Differenzierung von Befragungen ist die Präsentierung der Fragen. Im Hinblick auf die Kommunikationssituation lassen sich schriftliche bzw. mündliche Darbietung der Fragen unterscheiden. Beim Interview erfolgen die Fragen mündlich und die Registrierung der Antworten über den Interviewer. Dieses Vermittlungsinstrument zwischen Forscher und Befragungsperson fällt bei der schriftlichen Befragung weg, weil dort der Befragte den Fragebogen selbständig ausfüllt. Dies bedeutet, dass der Fragebogen hoch standardisiert und gleichzeitig sehr einfach zu beantworten sein muss, weil keine personale Unterstützung beim Ausfüllen möglich ist. Zwar finden sich in der qualitativen Methodologie, z.B. im Bereich biographischer Methoden durchaus schriftliche Formen der Datenerhebung - doch dürfte im Regelfall eine qualitative Befragung mündlich durchgeführt werden.
     
    Stil der Kommunikation
    Nach dem Stil der Kommunikation, also nach dem Interviewerverhalten, unterscheidet man zwischen den beiden Extremtypen: weiches und hartes Interview: Weich ist ein Interview, wenn der Interviewer versucht, ein Vertrauensverhältnis zum Befragten zu entwickeln, indem er der Person des Befragten (nicht den Antworten) seine Sympathie demonstriert. Beim weichen und beim harten Interview geht man von einer ähnlichen Annahme, nämlich der mangelnden Bereitschaft zur Mitarbeit aus, nur die Strategie ist eine andere. Beim weichen Interview versucht der Interviewer sympathisierendes Verständnis für die Situation des Befragten zum Ausdruck zu bringen und dadurch die widerstrebende Haltung des Befragten abzubauen. Beim harten Interview, geht der Interviewer so vor, dass er gleichsam als Autorität, wie in einem Verhör, auftritt und sehr massiv Druck macht, um die Widerstände des zu Befragenden zu brechen und Antworten zu erhalten.
     
    4.5.1.2 Das qualitative Interview
     
    Das qualitative Interview ist im Vergleich zu anderen Forschungsmethoden in den Sozialwissenschaften besonders eng mit Ansätzen eines hermeneutischen Wissenschaftsverständnisses verbunden. Aus dem verstehenden Herangehen an methodische Aufgabenstellungen ergeben sich aus der Sicht der VertreterInnen dieses Forschungsansatzes die Möglichkeiten, Situationsdeutungen in offener Form zu erfragen, Fragen nach Handlungsmotiven zu stellen, Alltagstheorien und Selbstinterpretationen zu erheben und durch diskursive Verständigung über Interpretationen näher an die Lebenswirklichkeit der befragten Personen heranzukommen. Verschiedenste Formen qualitativer Interviewtechniken haben sich in den letzten Jahren entwickelt:
     
    Narratives Interview
    Diese Form des Interviews ist von SCHÜTZE im Zusammenhang mit einer Studie über kommunale Machtstrukturen entwickelt worden. Es wird besonders häufig in Zusammenhang mit lebensgeschichtlich bezogenen Fragestellungen eingesetzt. Der Begriff wird oft sehr weit gefasst und als Synonym für qualitative Interviewformen schlechthin verwandt. In der ursprünglichen Form ist das bestimmenden Grundelement, die vom Befragten frei entwickelte, durch eine Eingangsfrage - die erzählgenerierende Frage- angeregte Stegreiferzählung.
    In autobiographisch-narrativen Interviews steht neben der Erzählung und dem Nachfrageteil des Interviews ein dritter Hauptteil, der auch als Bilanzierungsteil bezeichnet wird. In ihm werden die Befragten in stärkerem Maße als Experten und Theoretiker ihrer selbst angesprochen und auf abstrakter Ebene zu Generalisierungen und Selbstinterpretationen befragt.
     
    Problemzentriertes Interview
    Mit diesem Begriff bezeichnet WITZEL eine Interview-Variante, die eine sehr lockere Bindung an einen knappen, der thematischen Orientierung dienenden Leitfaden mit dem Versuch verbindet, den Befragten sehr weitgehende Artikulationschancen einzuräumen und sie zu freien Erzählungen anzuregen. Problemzentrierte Interviews werden oft auch als Kompromiss zwischen leitfadenorientierten und narrativen Gesprächsformen angesehen, wobei die Begriffswahl problemzentriert kaum trennscharf ist: Denn wer möchte schon darauf verzichten, problembezogene Interviews zu führen.
     
    Interviewleitfaden: Interviewanweisung, schriftlich festgelegte Richtlinie, nach denen der Interviewer in der Interaktion mit dem Interviewten vorzugehen hat. Der Umfang ist variabel: von einer groben Skizzierung des Interviewzieles bis zur detaillierten Festlegung aller einzelnen Handlungs- und Frageschritte (Lexikon der Soziologie).
     
    Fokussiertes Interview
    Die Form des fokussierten Interviews wurde in den vierziger Jahren im Zusammenhang mit Kommunikationsforschung und Propagandaanalyse von MERTON entwickelt. Zentral für diese Form des Interviews ist die Fokussierung auf einen vorab bestimmten Gesprächsgegenstand - wie z.B. einen Film, den die Befragten gesehen haben, einen Artikel, den sie gelesen haben, eine bestimmte soziale Situation, an der sie teilhatten u.ä.- und der Versuch, Reaktionen und Interpretationen im Interview in relativ offener Form zu erheben. Als neuere Varianten fokussierter Interviews gelten oft solche Interviews, in denen Aufzeichnungen zum Tagesablauf oder auch komplexere persönliche Dokumente zum Gesprächsgegenstand gemacht werden, oder Interviews die im Rahmen teilnehmender Beobachtung durchgeführt werden, in denen spezifische gemeinsam erlebte Situationen abgehandelt werden, z.B. Unterrichtssituationen in Interviews mit Lehrern in der Unterrichtsforschung u.ä.
     
    Diskursives Interview
    Interviews, in denen die Befragten primär als Theoretiker und Experten ihrer selbst, ihrer Geschichte und ihrer Eigenheiten angesprochen werden und die der kommunikativen Verständigung über Deutungen dienen, werden als diskursive Interviews bezeichnet. Zentrales Anliegen diskursiver Interviews ist es, die Deutungen oder Sachverhaltsdarstellungen, die von den ForscherInnen auf der Grundlage vorangegangener Gesprächskontakte entwickelt wurden, im erneuten Gespräch mit den Befragten auf ihre Stichhaltigkeit hin zu überprüfen bzw. kommunikativ zu validieren. Auch wenn diese Form des qualitativen Interviews in der einschlägigen Literatur oft als eigene Interviewform dargestellt wird, ist daran zu erinnern, dass es Elemente dieser Form auch in anderen Interviews, etwa im narrativen Interview gibt.
     
    4.5.1.3 Das quantitative Interview
     
    Dem empirisch-analytischen Wissenschaftsverständnis entspricht eine stark standardisierte Form von Interview- und Befragungstechniken. Fragen, Fragenreihenfolge und Antwortmöglichkeiten sind meist vorgegeben (Fragebogen!) und werden im gleichen Wortlaut und in der gleichen Reihenfolge allen Befragten gestellt. Das wesentlichste Argument zugunsten eines derart standardisierten Interviews ist sehr einfach: Man sollte nicht zweierlei Maß verwenden. Wenn es darum geht Unterschiede oder Zusammenhänge zwischen Befragten im Hinblick auf eine Gruppe von Variablen aufzuzeigen, kann nie entschieden werden, ob die Unterschiede, sich zwischen den Befragten herausstellen, auf die Unterschiede der Messtechnik oder auf Unterschiede in den zu messenden Einstellungen etc. zurückgehen. Wenn Interviewer mit einem nicht-standardisierten Instrument die Befragung durchführen, verändern sich Wortlaut und die Reihenfolge der Fragen beträchtlich. BefürworterInnen des nicht-standardisierten qualitativen Interviews halten es hingegen gerade für wichtig, das Vorgehen von einem zum anderen Fall anzugleichen. Sie weisen darauf hin, dass gleiche Worte für verschiedene Versuchspersonen durchaus Unterschiedliches bedeuten können. Wenn man eine standardisierte Frage stellt hat man also noch lange nicht ihre Bedeutung für die Befragten standardisiert. Dieses Argument der Bedeutungsäquivalenz stützt sich auf die Meinung, dass es besser sei, Wörter zu gebrauchen, die gleichwertige Bedeutung für unterschiedliche Befragte haben, und das selbst dann, wenn die Wörter objektiv nicht ident sind.
     
    Anwendungsmöglichkeiten
    Das Interview bzw. der Fragebogen ist ein allgemein verbreitetes Mittel der Sozialforschung, das bei einer Vielzahl von Projekten, aber auch bei einzelnen Phasen eines Projektes unterschiedlich eingesetzt werden kann.
     
    a) Während der Anfangsphase eines Projektes, kann es dazu verwendet werden, die passenden Dimensionen abzuklären, Hypothesen zu formulieren und die natürlichen Bezugssysteme zu enthüllen, die im Bewusstsein der Befragten vorhanden sind.
    b) Die zweite mögliche Aufgabe des Interviews während einer Untersuchung liegt in seiner Verwendung als Hauptwerkzeug für eine Datensammlung. Wenn das Interview in einer Untersuchung als das hauptsächliche Instrument für die Datensammlung verwendet wird, werden die Probleme der Standardisierung der Interviewtechnik bedeutsamer als sonst.
    c) Eine dritte Aufgabe des Interviews besteht darin, Ergebnisse zu klären, die sich aus dem Gebrauch anderer Techniken ergeben. So kann z.B., wenn die unabhängige Variable eines Experiments sehr komplex ist (wie z.B. bei vielen Kommunikationsuntersuchungen, in denen die experimentelle Gruppe einem Fernseh- oder Radioprogramm ausgesetzt wird), das Interview aufzeigen, welche besonderen Aspekte des experimentellen Verfahrens für die beobachteten Auswirkungen verantwortlich waren. Falls unerwartete Ergebnisse auftreten, kann das Interview dazu Anhaltspunkte liefern, warum das experimentelle Verfahren nicht die erwarteten Auswirkungen hervorbringt.
     
    Die "Kunst" der Operationalisierung
    Das Problem der Operationalisierung stellt sich beim Interview im wesentlichen als Problem der Auswahl und der richtigen Formulierung von Fragen dar. Ein dabei oft gemachter Fehler besteht darin, dass bestimmte Begriffe der Theorie in allzu direkte Fragen übersetzt werden. Wenn ein Untersuchungsziel darin besteht, etwas über die Bestimmungsgründe einer gegebenen Einstellung herauszufinden, so könnte man den Befragten doch einfach fragen: Warum haben sie das getan? oder Warum denken sie so? Die Schwächen dieser einfachen Frage nach dem Warum sind von P. LAZARSFELD (1953) zutreffend beschrieben worden. Er hat darauf hingewiesen, welche Vielzahl von Bezugssystemen auf diese Weise ans Licht gebracht werden könnten, von denen u.U. nur wenige mit dem Untersuchungsziel in Verbindung stehen könnten. In vielen Fällen besteht die schlimmste Schwäche dieses Verfahrens darin, dass man im Grunde von den Befragten erwartet, ein Wissenschaftler zu sein. Ein weiteres Grundproblem bei der Frageformulierung besteht darin, sich zu versichern, dass Fragen für den Befragten eine möglichst klare Vorstellung vom Diskussionsgegenstand erzeugen. Häufig wird in solchen Fällen eine Filterfrage verwendet, die es erlaubt, bestimmte Personen herauszufiltern und bestimmte weitere Fragen an sie zu unterlassen.
     
    Quellen für den Fragebogen
    Ein mit einem Fragebogen zu erfassendes Konstrukt kann aus sozialwissenschaftlichen Theorien oder Modellen, wie sie in der Fachliteratur der jeweiligen Disziplin fixiert sind, entspringen. Es kann aber ebenso gut aus eigenen Überlegungen, Alltagsbeobachtungen u.ä. abgeleitet werden. Dementsprechend kann die Sammlung der Items, wahlweise oder kombiniert auf eine Reihe unterschiedlicher Quellen zurückgreifen: Fragen können aus bereits vorliegenden sozialwissenschaftlichen Theorien abgeleitet werden. Fragen oder Feststellungen können jedoch auch von bereits bestehenden Erhebungsinstrumenten übernommen werden (ZUMA Skalenhandbuch). Ebenso können ExpertInneninterviews oder Probeinterviews als Ideenquelle für die Formulierung von Fragebogen-Statement dienen.
     
    Die Sprache im Fragebogen
    Zu Beginn der Arbeit am Fragebogen sollte zunächst eine Entscheidung über die sprachliche Form des Fragebogens, d.h. über die Art und Weise, sprachliches Material zur Beantwortung darzubieten, getroffen werden: Grundsätzlich können im Interview bzw. Fragebogen
    a) Fragen gestellt werden, z.B. Halten Sie sich für einen geselligen Menschen? oder Sollte man allen Asylsuchenden eine Arbeitserlaubnis geben?
    b) oder es können Feststellungen (Statement) dargeboten werden, z.B. Ich bin ein geselliger Mensch oder Man sollte allen Asylsuchenden eine Arbeitserlaubnis geben.
    Formulierungsregeln
    Eine Reihe vom allgemeinverbindlichen Regeln zur Formulierung von Fragen und zur Operationalisierung von sozialwissenschaftlichen Konstrukten in Fragebögen, die mit gewissen Einschränkungen anwendbar erscheinen, hat EDWARDS bereits vor etwa dreißig Jahren zusammengestellt:
     
    a) Man vermeide Feststellungen, die sich auf Vergangenheit oder Gegenwart beziehen.
    b) Man vermeide Feststellungen, die sich auf Tatsächliches beziehen oder so interpretiert werden könnten.
    c) Man vermeide Feststellungen, die sich auf mehr als eine Weise interpretieren lassen.
    d) Man vermeide Feststellungen, die entweder von fast jedem oder fast niemandem bejaht werden können.
    e) Man wähle eine einfache, klare, direkte Sprache.
    f) Feststellungen sollten kurz sein und nur selten mehr als zwanzig Wörter enthalten.
    g) Jede Feststellung sollte nur einen einzigen vollständigen Gedanken enthalten.
    h) Man vermeide Wörter, die von den beantwortenden Personen nicht verstanden werden.
    i) Man vermeide den Gebrauch doppelter Verneinung.
     
    Strategien der Frageformulierung
    Die Konstrukte eines Fragebogens können Themen betreffen z.B. Persönlichkeitszüge etc., die die Befragten auch dann nicht an sich selbst beschreiben könnten bzw. würden, wenn zwischen ihnen und dem Interviewer eine freundschaftliche Beziehung bestünde. Eine Vielzahl von indirekten Techniken ist daher für alle Fälle entwickelt worden, wo anzunehmen ist, dass der Untersuchungsgegenstand Widerstand hervorrufen würde. Wenn ein Interview sensible Themen behandelt, muss man Fragen so formulieren, dass die Abwehrmechanismen auf ein Minimum beschränkt werden. Die projektive Methode (siehe unten) stellt dabei eine Strategie dar. Es gibt jedoch auch Wege, auf denen direkte Fragen derart formuliert werden können, dass der Befragte sich verhältnismäßig frei fühlt, unbefangen zu antworten. Im wesentlichen besteht das Problem darin, den Befragten nicht fühlen zu lassen, dass bestimmte Antworten einen Prestigeverlust bedeuten würden. Dies kann dadurch erreicht werden, dass man die Antworten, die der Befragte geben könnte, salonfähig erscheinen lässt.
     
    a) Ausbalancieren der Alternativen: "Halten Sie und ihre Familie etwas davon, ihre Zuneigung zueinander offen zu zeigen, oder gehören sie eher zu den zurückhaltenden Menschen?" Eine andere Fassung dieser Frage, die lediglich darauf einging, ob man in der Familie des Befragten einander herzlich begegnete, brachte eine übermäßige Häufung von Fällen am positiven Ende der Skala.
    b) Man nehme an, dass der Befragte die niedrig eingeschätzte Einstellung oder Verhaltensweise besitze, und wälze die Last des Leugnens auf ihn ab: KINSEY (1948) verwendete diese Technik bei der Formulierung von Fragen erstmalig: "Wann haben sie zum ersten Mal...", statt "Haben sie jemals..."
    c) Projektive Fragen: Damit bezeichnet man jene Fragemethode, bei der Fragen nach anderen Personen gestellt werden, wobei vermutet wird, dass der Befragte sich selbst an die Stelle des anderen setzen wird, so dass die Beantwortung in Wahrheit seine eigene Einstellung wiedergeben wird. Das Problem, die Gültigkeit projektiver Fragen zu bewerten, ist seinem Wesen nach äußerst schwierig. Man kann z.B. die Antworten auf projektive Fragen mit Antworten auf direkte Fragen zu diesem Thema korrelieren. SANFORD & ROSENTSTOCK (1952) bereicherten diese Methode der projektiven Fragestellung um eine interessante Variante. Ziel ihrer Untersuchung war es, Aufschluss über autoritäre Persönlichkeitsstrukturen zu bekommen. Sie benutzten eine Reihe von witzblattartigen Zeichnungen, in denen Situationen beschrieben waren, bei denen Fragen von Führung und Autorität eine Rolle spielten. So stand z.B. ein Mann vor einer Gruppe und sagte: "Weil ich der Leiter der Gruppe bin, sollen Sie das tun, was ich sage". Ein Gruppenmitglied wurde beim Antworten gezeigt, aber die Antwort freigelassen oder geschlossen vorgegeben. Der Versuchsleiter forderte den Befragten dann auf, diesen Comic zu vollenden.
    d) Fehlerauswahlmethode: Die Befragten werden dabei gebeten auf eine Tatsachenfrage zwischen verschiedenen Antwortmöglichkeiten zu wählen. Alle vorgegebenen Alternativen sind jedoch falsch. Zugrunde gelegt ist die Annahme, dass die Richtung des Fehlers, den ein Befragter macht, etwas über seine Einstellung aussagt.
    e) Informationstest: Vielfach wurde gefunden, dass die Art und das Ausmaß einer Information die eine Versuchsperson über einen Gegenstand besitzt, eine Funktion ihrer Einstellung in Bezug auf diesen Gegenstand darstellt. Informationsfragen können deshalb in einem Interview zur indirekten Messung von Einstellungen verwendet werden.
     
    Gestaltung der Antworten
    Auf sehr unterschiedliche Art und Weise kann der Antworttypus, d.h. die Art der verlangten sprachlichen Reaktion gestaltet sein. In einfachster Weise wird auf eine Frage oder Statement lediglich ein zweistufiges kategoriales Urteil verlangt: "ja-nein" oder stimmt-stimmt nicht u.ä. Die Zahl der Anwortkategorien kann jedoch auch erweitert werden, z.B. im einfachsten Fall um eine dritte Antwortkategorie: ja-neutral-nein. Durch Erweiterung um mehrere Kategorien entsteht eine sogenannten Schätz- oder Ratingskala; dabei kann es sich um eine rein numerische Ratingskala, eine graphische Ratingskala, eine verbal verankerte, d.h. an bestimmten Punkten der Skala mit Verbalisierungen versehene Ratingskala handeln.
     
    Fragen, geschlossene: Interviewfragen, bei denen der Befragte zwischen vorgegebenen Antwortmöglichkeiten zu wählen hat. Die Schwierigkeit bei g. F. besteht in der adäquaten Aufgliederung der Antwortkategorien vor Beginn der Untersuchung. G.F. werden fast ausschließlich in teil- oder voll-standardisierten Interviews verwendet (Lexikon der Soziologie).
    Erfahrungsgemäß führt die Einführung einer mittleren Antwortkategorie, sei sie explizit vorgegeben (z.B. durch die Antwortkategorie "neutral") oder durch Verwendung einer mehrstufigen Antwortskala mit ungerader Kategorienzahl, eher zu Schwierigkeiten als dass es mit Vorteilen verbunden ist. Ein Zustimmen oder Ablehnen der mittleren Antwortkategorie kann nämlich für einzelne Versuchspersonen ganz unterschiedliche Bedeutung haben:
     
    a) eine mittlere Antwortposition (z.B. jemand hält sich für einen in mittlerem Maße geselligen Menschen)
    b) eine Weiß-nicht-Antwort (z.B. jemand kommt zu keinem endgültigen Urteil darüber, ob er nun gesellig ist oder nicht)
    c) eine Irrelevanz-Antwort (z.B. jemand hält die Frage für nicht besonders wichtig usw.)
    d) eine Protest-Antwort (z.B. jemand hat etwas gegen die Frage einzuwenden und drückt seine Unmut oder Widerstand gegen die Frage durch das Ankreuzen der mittleren Kategorie aus)
    Aus solchen Gründen wird eine mittlere Kategorie häufig bewusst weggelassen, indem nur positive und negative Antwortmöglichkeiten vorgegeben werden. Die antwortende Person soll dadurch gar nicht erst auf eine der genannten Ausweichmöglichkeiten verwiesen werden. Auf der anderen Seite kann die Berücksichtigung der neutralen Antwortkategorie sinnvoll sein, wenn man aus der Häufigkeit des Ankreuzens dieser mittleren Position auf so etwas wie Interesse bzw. Desinteresse bei der Beantwortung des Fragebogens schließen will.
     
    Fragen, offene: Interviewfragen, bei denen Befragten keine Antwortkategorien vorgegeben werden. O.F. werden häufig in explorativen Untersuchungen verwendet, bei denen Antwortmöglichkeiten nicht vor der Untersuchung abgeschätzt werden können (Lexikon der Soziologie).
    Ein gelegentlich gewähltes, wenn auch etwas aufwendiges Verfahren der Darbietung von Fragebogen-Items und ihrer Beantwortung besteht in der sogenannten Forced-Choice-Technik, bei der nicht jede Frage für sich beurteilt werden soll, sondern eine Entscheidung zwischen mehreren gleichzeitig dargebotenen Fragen oder Aussagen zu treffen ist: Es werden dabei Statements vorgegeben, die das zu messende Merkmal in unterschiedlichem Grad ausdrücken oder repräsentieren. Die zutreffendere der Feststellungen soll dabei angekreuzt werden.
     
    Interview, postalisches: schriftliches Interview, bei dem den Befragten der Fragebogen mit der Post zugestellt wird. In der Regel ist ein Rücksendeumschlag beigefügt. Bei p. I. ist mit einer hohen Ausfallsquote zu rechnen, die zu schwer kontrollierbaren Verzerrungen führen kann (Lexikon der Soziologie).
     
    Fragebogen-Begleittext
    Von äußerster Wichtigkeit vor allem bei postalischen Befragungen ist die Abfassung eines entsprechenden Begleit- bzw. Instruktionstextes. Er soll die Motivation der Versuchspersonen zum Ausfüllen des Fragebogens heben, den Kontext der Untersuchung transparent machen und Kenntnisse für das richtige Ausfüllen des Erhebungsinstrumentes vermitteln. Die übliche Instruktion für die Beantwortung von Fragebögen weist u.a. auf folgende Punkte hin:
     
    a) Vollständigkeit der Antworten beachten
    b) Aufrichtig zu antworten - Anonymität wird garantiert
    c) Möglichst zügig zu antworten
    Da Versuchspersonen Fragebögen oft mit Intelligenz- oder Leistungstest verknüpfen, kann man im Instruktionstext diesem Eindruck entgegenwirken, indem man ausdrücklich darauf hinweist,
    d) dass es bei dieser Art von Untersuchung keine richtigen oder falschen Antworten gibt, dass also jede persönliche Antwort richtig sei, da es sich nicht um einen Leistungstest handelt.
    e) In bestimmten Fällen, in denen es notwendig erscheint, kann es auch günstig sein darauf hinzuweisen, dass die Untersuchung lediglich zu Forschungszwecken ausgeführt wird und nicht der Bestimmung individueller Diagnosen mit Konsequenzen für die Versuchsperson dient, sondern dass man sich nur für eine gruppenstatistische Auswertung interessiert sowie,
    f) dass ausreichender Datenschutz gewährleistet ist.
     
    4.5.2 Inhaltsanalyse
     
    Die Inhaltsanalyse knüpft wie die anderen Instrumente der empirischen Sozialforschung auch - an alle alltäglichen Vorgehensweisen an, ist im Grunde nichts weiter als deren Systematisierung. So analysiert jeder Autofahrer den Inhalt, d.h. die Bedeutung von Symbolen, wenn er sich durch den Schilderwald kämpft; so analysiert der Wohnungssuchende mehr oder weniger systematisch den Inhalt des Anzeigenteils von Tageszeitungen. Allerdings geschieht diese alltägliche Inhaltsanalyse eher intuitiv, nicht nach fest vorgegebenen - intersubjektiv nachvollziehbaren - Regeln der Informationsverarbeitung.
     
    Inhaltsanalyse: Die I. ist eine Forschungstechnik, mit der man aus jeder Art von Bedeutungsträgern durch systematische und objektive Identifizierung ihrer Elemente Schlüsse ziehen kann, die über das einzelne analysierte Dokument hinaus verallgemeinerbar sein sollten.
     
    Diese weitgefasste Definition zeigt, dass das Instrument der Inhaltsanalyse nicht auf die Verarbeitung sprachlicher Mitteilungen beschränkt ist, sondern z.B. auch Gemälde aus einer zurückliegenden Epoche, Keramik oder kultische Gegenstände aus einer Kultur, von der schriftliche Dokumente überliefert sind, oder Stummfilmmaterial zum Gegenstand haben kann. Im allgemeinen jedoch - jedenfalls in den Zusammenhängen, in denen Sozialwissenschaftler die empirische Inhaltsanalyse einsetzen - wird es sich um die Analyse sprachlicher Mitteilungen handeln, meist schriftliche Texte.
    Die Definition besagt insbesondere auch, dass nicht nur von Daten über Textteile auf Tendenzen in den Texten selbst geschlossen wird, sondern dass die herausgelesenen Informationen genutzt werden, um Aussagen über die soziale Realität außerhalb der Texte zu gewinnen. Die Texte sind in diesem Fall nicht selbst Gegenstand des Auswertungsinteresses ( wie dies etwa bei literaturwissenschaftlichen Untersuchungen der Fall sein kann), sondern sie dienen lediglich als Informationsträger; die dokumentierten Aussagen sind Indikatoren für externe Sachverhalte.
    Solche Sachverhalte können sein:
    beschriebene/dargestellte Ereignisse oder Situationen
    Aussageabsichten/Einstellungen der Autoren
    Merkmale der Rezipienten/Zielgruppen der Texte
    Politische/soziale Kontexte der dokumentierten Ereignisse/Situationen
    Die interessierenden Sachverhalten können entweder manifest in den Texten dokumentiert sein; oder sie sind indirekt aus den Texten zu erschließen (latente Inhalte; zwischen den Zeilen zu lesende Mitteilungen)
    Einige Beispiele sollen den sehr weiten Anwendungsbereich der Techniken der Inhaltsanalyse veranschaulichen: Auswertung von Gruppendiskussionen, von Leitfaden-Interviews; Auswertung von Gesprächsprotokollen oder Zeitungsartikeln.
    Abzugrenzen ist die systematische empirische Inhaltsanalyse von dem im Deutschunterricht der Schule geläufigen Verfahren der Textinterpretation. Für solche Textinterpretationen gelten die Regeln der geisteswissenschaftlichen Hermeneutik. Auch die Hermeneutik hat die Auswertung sinnhaltiger Texte zum Ziel. Allerdings geht es nicht um die systematische Identifizierung von Aussage-Elementen und deren Zuordnung zu vorher festgelegten Kategorien, wie in der empirischen Inhaltsanalyse. Die Erkenntnisabsicht bei hermeneutischen Verfahren ist vielmehr das Verstehen des Sinns, die Auslegung oder deutende Interpretation von Aussagen. Die Bedeutung einer Botschaft (eines Textes, eines Gedichtes) soll nachvollzogen und gedeutet werden, indem man versucht, sich das Dokument in seiner Ganzheit und in seinen inneren Zusammenhängen zu erschließen und in die Situation der Entstehung hineinzudenken.
    Das Ergebnis solcher hermeneutischer Textinterpretationen wird jeweils subjektiv in dem Sinne bleiben, dass zwei verschiedene Personen kaum einmal genau identische Interpretationen liefern werden; d.h. das Resultat ist personenabhängig.
    Einen gänzlich anderen Weg allerdings beschreitet die sogenannte Objektive Hermeneutik (OEVERMANN). Hier sollen sprachlich dokumentierte Protokolle realer sozialer Handlungen oder Interaktionen nicht subjektiv gedeutet, sondern systematisch darauf hin analysiert werden, welche objektiven (d.h. unabhängig von der subjektiven Sichtweise der Akteure existierenden) durch hermeneutische Explikation rekonstruierbaren Regeln das dokumentierte Verhalten geleitet haben könnten.
    Wenn demgegenüber im Zusammenhang mit der systematischen Inhaltsanalyse von objektiv gesprochen wird, dann ist dies in einem eingeschränkten Sinn, als Gegensatz insbesondere zum geisteswissenschaftlichen Vorgehen zu verstehen: Inhaltsanalyse soll objektiv in der Weise sein, dass die systematische Zuordnung von Aussageinhalten zu vorher festgelegten Kategorien von der Person, die die Textdurchsicht und die Zuordnung vornimmt, unabhängig sein soll; die Resultate der Zuordnung sollen intersubjektiv sein. Zu diesem Zweck müssen die Zuordnungsregeln vom Codierer einheitlich und konsistent angewandt werden.
    Ein weiterer Unterschied zum hermeneutischen Vorgehen besteht darin, dass bei der hermeneutischen Interpretation die Absicht vorherrscht, durch Einbeziehen möglichst aller Umstände und Bedingungen, unter denen der Text entstanden ist, ein ganzheitliches Verständnis zu entwickeln. Die systematische Inhaltsanalyse geht dagegen den umgekehrten Weg: Die Texte werden zunächst in Einzelbestandteile aufgelöst. Aus der Beschreibung der Einzelbestandteile sowie der zwischen den Einzelbestandteilen festzustellenden Beziehungen gelangt man zu Schlussfolgerungen, die über die eigentlichen Texte hinausgehen (können). Nicht die einzelnen Bestandteile des Textes liefern die Antworten auf die Untersuchungsfragen, auch nicht ein einzelner zusammenhängender Text, sondern erst die Auswertung der Informationen (Daten), die aus der Gesamtheit der analysierten Texte gewonnen werden, erlaubt verallgemeinerbare Schlüsse.
    Objektiv heißt also: Das Verfahren der Zerlegung eines Textes in seine zu analysierenden Bestandteile sowie der Zuordnung zu analytischen Kategorien ist objektiviert; jeder Sachkundige kann die Vorgehensweise exakt nachvollziehen, sie ist intersubjektiv überprüfbar. Systematisch in der obigen Definition heißt, dass vor der Inhaltsanalyse ein Auswertungsschema erarbeitet wird, an das die Codierer sich zu halten haben.
     
    Ein vereinfachtes Modell sozialer Kommunikation
    Die Forderung nach Intersubjektivität ist nun im Zusammenhang mit der Inhaltsanalyse leicht aufgestellt, aber schwer zu verwirklichen. Mit dem Prozess der Übermittlung und der Deutung von Zeichen, die eine bestimmte Information enthalten, befasst sich die Informationswissenschaft.
    Kommunikation wird nach diesem Modell verstanden als Zeichenverkehr zwischen Sender und Empfänger. Hierbei ist der Sender die Quelle einer Botschaft (z.B. eine Person, die einen Satz ausspricht). Die gesendeten Zeichen stellen die Nachricht dar, die übermittelt werden soll (z.B. Die Worte des ausgesprochenen Satzes, die eine bestimmte Bedeutung repräsentieren); Empfänger ist der jenige, der die Nachricht, die Information aufnimmt (z.B. derjenige, der den gesprochenen Satz hört). Hierzu kommen noch als weitere Notwendigkeit die Existenz eines Übertragungsmediums. Im Falle einer schriftlichen Kommunikation tritt an die Stelle des gesprochenen Wortes das geschriebene Wort, das Übertragungsmedium ist dann das Papier, auf dem die Schriftzeichen erkennbar sind.
    Kommunikation klappt dann, wenn beide Gesprächspartner - wie es treffend in der Umgangssprache heißt - dieselbe Sprache sprechen. Dass Fälle nicht einwandfrei gelingender Kommunikation aber gar nicht so selten eintreten, illustrieren manche Diskussionen, in denen die Diskutanten erhebliche Zeit völlig aneinander vorbeireden können, ohne es zu merken.
    Die angedeuteten Schwierigkeiten verstärken sich noch, wenn Texte analysiert werden, die aus einem anderen sozialen Kontext stammen als dem der Forscher oder Codierer (soziale Randgruppe u.ä.). In solchen Fällen sollte der eigentlichen empirischen Inhaltsanalyse eine semantische Analyse der in den Texten vorkommenden Begriffe vorausgehen, um die tatsächliche Bedeutung der sprachlichen Zeichen festzustellen.
    Um es zusammenzufassen: Objektivität als Definitionsmerkmal der empirischen Inhaltsanalyse kann sich nur beziehen auf eine Objektivierung des Verfahrens der systematischen Datengewinnung durch vorab formulierte explizite Regeln des Vorgehens. Das gilt im übrigen nicht nur für die Inhaltsanalyse, sondern für sämtliche Methoden empirischer Sozialforschung.
     
     
     
    5 Anhang
     
    5.1 Materialien
    5.1.1 Wissenschaftstheoretische Grundlagen
    5.1.1.1 Hermeneutik
     
    Hermeneutik ist die Wissenschaft vom Verstehen.
    Das (griechische) Wort Hermeneutik (hermeneúein = aussagen, auslegen, übersetzen) bedeutet - grob umschrieben - zunächst: Kunst der Auslegung und Deutung, Technik des Verstehens und Verstehen-Könnens. In der philosophischen Tradition besitzt die Hermeneutik (seit dem 19. Jhdt.) drei Funktionen:
    Fundierung einer spezifisch geisteswissenschaftlichen Methode (im Gegensatz zu den Naturwissenschaften)
    Betonung der Geschichtlichkeit des Menschen in seiner Lebenswelt
    Analyse der Bedingungen von (Lebens-) Äußerungen des Menschen (etwa Kunst) im Ganzen seines (Welt) Horizontes (Weltanschauung!)
    Verstehen meint die Erkenntnisform, die auf die Erfassung von Sinn, von Bedeutung (im Gegensatz zur Erklärung = Gründe, Ursachen, kausal) hinzielt.
    Unter Sinn versteht man - als Gegensatz zu Zweck - die Inhalte des theoretischen und praktischen Handelns oder Verhaltens. Im Unterschied zum Erklären wird im Verstehen nicht der Inhalt primär aus anderem entstanden (Ursachen, Bedingungen) oder herleitbar begriffen, sondern in gewisser Weise aus sich selbst.
     
    Beispiel:
    "Spielen kann zweckfrei, aber sinnvoll sein (daher hermeneutisch betrachtbar)
     
    Versteht man Hermeneutik in diesem weiten Sinn (erst seit jüngster Zeit), so repräsentiert sie eine bestimmte Auffassung einer Philosophie des sinnhaften Seins und Geschehens bzw. mit ihrer theoretischen und praktischen Aneignung durch den Menschen.
     
    Hermeneutik im engeren Sinne (aus der Rhetorik hergeleitet) meint das Verstehen von überlieferten Texten. Ursprünglich im juristischen und theologischen (bis heute noch) Bereich beheimatet, wandte man die Hermeneutik seit Beginn des 19. Jahrhunderts auch auf die Sprach- und Geschichtswissenschaft an. Gleichzeitig setzte eine philosophische Reflexion des Verstehens (Schleiermacher, Dilthey u.a.) ein. Sie wurde insofern zur Methodologie, als sie die Reflexion ihrer selbst als konstitutiv für die Wissenschaften mit einschließt. Die im universalwissenschaftlichen Anspruch der Hermeneutik enthaltenen Schwierigkeiten wirken sich weiterhin aus - besonders im Konflikt mit dem Neuempirismus wurde die Hermeneutik vor die Frage ihrer Legitimation als wissenschaftliches Verfahren gestellt.
    Ihre Bedeutung für die Pädagogik schlägt sich nieder in der Tradition der "Geisteswissenschaftlichen Pädagogik". Nach Dilthey umfassen die Geisteswissenschaften im Gegensatz zu den Naturwissenschaften das "Ganze der Wissenschaften, welche die geschichtlich-gesellschaftliche Wirklichkeit zu ihrem Gegenstand haben".
     
    Vertreter: Spranger, Kerschensteiner, Nohl, Litt, Weniger, Flitner, Klafki (in den Anfängen).
     
    Zwar hat die Hermeneutik bzw. die Geisteswissenschaftliche Pädagogik kein einheitliches System hervorgebracht, doch das hermeneutisch-pragmatische Verfahren, das die geschichtlich-edukative Reallage hermeneutisch aufhellt und aufklärt und ebenso die pädagogisch relevanten Fakten empirisch erforscht, hat besonders in den letzten Jahren in der Krise der Pädagogik (Selbstverständnis als Wissenschaft, Konfrontation mit Psychologie, Soziologie und anderen Gesellschaftswissenschaften) neuen Auftrieb erhalten.
    Im Rahmen der geisteswissenschaftlichen Bildungstheorien sind einige Themen besonders intensiv diskutiert worden: die Autonomie der Pädagogik, der pädagogische Bezug, die geisteswissenschaftliche Didaktik, die Theorie der Bildsamkeit, das Normenproblem und die Theorie der Bildungsinhalte (Klafki, Weniger). Vor allem Klafki konstituierte Erziehungswissenschaft als kritisch-konstruktive Theorie, die Hermeneutik, Empirie und Ideologiekritik umfasst. Grundgedanke der Hermeneutik ist die Unterscheidung zwischen elementarem und höherem Verstehen.

     

    Elementares Verstehen

     

    höheres Verstehen

     

    alltäglich, nicht bewusst
    individuell
    subjektiv

    Sie richtet sich auf einzelne Lebensäußerungen.

     

    baut auf elementarem Verstehen auf
    allgemeingültige Zusammenhänge
    objektiv (nicht mit absolut verwechseln)

    Richtet sich auf Ganzheiten von miteinander in Beziehung stehenden Lebensäußerungen.

     
    Quelle: Stangl, Werner (1997). Handlungsforschung. "Werner Stangls Arbeitsblätter".
    http://paedpsych.jk.uni-linz.ac.at/INTERNET/ARBEITSBLAETTERORD/Arbeitsblaetter.html
     
     
     
    5.1.1.2 Dialektik
     
    (griech. dialektike techne, Gesprächskunst).
    D. ist ein häufig verwendeter, schwer zu handhabender und umstrittener philosophischer Begriff. Er hat im Lauf der Philosophiegeschichte erhebliche Bedeutungsveränderungen erfahren:
    Systematisch tritt er zuerst bei Platon auf. Dialektik wird ausdrücklich an das Gespräch (den Dialog) gebunden. Sie meint eine Kunst der Gesprächsführung, die, so betont Platon gegen die Sophisten, im Dienst der Sache steht. Die "Kunst" der Sophisten dagegen, jeder beliebigen Meinung zu widersprechen oder jede beliebige Meinung zu "beweisen", bestehe nur in Wortspielerei (Eristik). Dialektik ist für Platon eine Methode, Positionen zu problematisieren und schließlich durch die Bewegung des Gesprächs zwischen den Teilnehmern (Frage-Antwort) den Widerstreit der Meinungen zu überwinden; sie ist der Weg zur Erkenntnis der Wirklichkeit (der Ideen). Im weiteren bestimmt Platon die Dialektik als Disziplin, welche die Struktur der Wirklichkeit untersucht. Sie grenzt die verschiedenen Begriffe voneinander ab und hält sie zugleich unter allgemeineren, umfassenderen Begriffen zusammen.
    Bei Aristoteles hat die Dialektik mit denjenigen Fragen zu tun, über welche die Meinungen kontrovers sind und die sich nur entscheiden lassen, indem Für und Wider dialektisch abgewogen werden. Dialektik ist danach eine Methode, diese Fragen durch Einbeziehung allgemeiner Gesichtspunkte (topoi) zu klären. Insofern kann die Dialektik als besonderer Teil der Logik aufgefasst werden: als Topik im Gegensatz zur sog. Analytik der formalen klassischen Logik. So stellt sich im Anschluss an Aristoteles das Problem des Verhältnisses von Dialektik und Logik. In der scholastischen Philosophie des Mittelalters geht die Tendenz dahin, beides zu identifizieren.
    Die Unterscheidung zwischen Analytik und Dialektik greift Kant wieder auf in seiner Kritik der reinen Vernunft (1781). Aber im Gegensatz zu Aristoteles (und Platon) betrachtet er die Dialektik als "Logik des Scheins", d. h. als "Blendwerk"; Thema der Dialektik sind erklärbare, aber nicht auflösbare Widersprüche.
    Wenn ein Vernunftbegriff (z. B. "die Welt") über die Grenzen möglicher Erfahrung hinaus zur Anwendung gelangt, entsteht der sog. "transzendentale Schein": Der Versuch, über das jenseits der Erfahrung Liegende Aussagen zu treffen, führt in Selbstwidersprüche (Antinomien). So kann man etwa sowohl die Behauptung (Thesis) "beweisen", dass die Welt in Raum und Zeit einen Anfang hat, wie auch ihre Gegenbehauptung (Antithesis), dass die Welt in Raum und Zeit keinen Anfang hat. Aufgabe der transzendentalen Dialektik ist es, solche Täuschung aufzudecken. Denn die menschliche Vernunft besitzt eine natürliche Neigung, sich darin zu verwickeln, weil sie nach der Erkenntnis unbedingter (absoluter) Einheit als Grundlage aller ihrer Erfahrungen strebt.
    Kants Kritik der Dialektik der Vernunft bleibt bei dem Nachweis stehen, dass eine Reihe von Thesen und Antithesen gleichermaßen bewiesen werden kann, wenn die Vernunft die Grenzen des Erfahrbaren überschreitet. Die Möglichkeit einer Versöhnung - einer Synthese - der widerstreitenden Behauptungen gibt es für ihn nicht.
     
    Fichte dagegen spricht von einem "synthetischen Verfahren", welches die Vereinigung der Gegensätze in einem Dritten gerade zum Zweck hat. Zu mehr als einer Methode wird die "Triade" (Dreiheit) von These-Antithese-Synthese beim jungen Schelling. Er behauptet, dass sich diese Dreiheit der Entwicklung in der Natur und der Geschichte widerspiegelt.
     
    Hegel wiederum lehnt bereits 1807 die Triade von These-Antithese-Synthese ab; es sei ein bloß "äußerliches lebloses Schema". (Die schon kurz nach Hegels Tod entstandene Ansicht, Hegels Dialektik baue auf dieser Triade auf, ist also ein Mythos.) Statt dessen sucht Hegel einen neuen Begriff der Dialektik zu entwickeln. Dazu geht er auf Platon zurück und betont, die Dialektik sei keineswegs bloße Scheinlogik, wie Kant glaubte. Zwar stimmt er Kant insofern zu, als dialektisches Denken der Vernunft entspringt; aber die von Kant für endgültig erklärten Vernunftwidersprüche lassen sich nach Hegel sehr wohl aufheben, und zwar in der spekulativen Dialektik. Die (Selbst-)Widersprüche der Vernunft sind ihrerseits nur scheinbar; indem Kant bei ihnen stehenbleibt, behandelt er sie viel zu abstrakt. Er übersieht, dass sie Momente eines größeren Zusammenhangs sind, in dem sie aufgehoben (vermittelt) werden. Der konsequente Gebrauch der Vernunft jenseits des Bereichs von (Sinnes-)Erfahrung führt nicht (nur) zu Täuschungen. Er führt zur Einsicht in viele Strukturen und Formen, die gar nicht anders gedacht werden können und folglich aus eigentlicher Erkenntnis stammen müssen. Deshalb ist die Dialektik für Hegel - im Einklang mit Schelling - keine bloße Methode: Jene Unterschiede und Zusammenhänge, von denen nicht gedacht werden kann, dass sie anders sind, müssen notwendige (ontologische) Grundzüge der Sache selbst, der Wirklichkeit, sein. Eine solche Folge von vernünftigen notwendigen Unterschieden und Zusammenhängen bezeichnet Hegel gern als dialektische Bewegung, Prozess oder Werden, ob diese Folge nun einen zeitlichen Verlauf hat oder nicht. Die Wirklichkeit insgesamt ist durch Unterschiede und Zusammenhänge strukturiert, und die spekulative Dialektik weist nach, wie sich solche Unterschiede und Zusammenhänge auseinander entwickeln. Durch den Gebrauch der Vernunft suchen wir die notwendigen Strukturen der Wirklichkeit zu begreifen; und die spekulative Dialektik lässt uns erkennen, dass unsere ersten, vorläufigen Begriffe von der Wirklichkeit zu derem widerspruchsfreien Begreifen keineswegs ausreichen. Dadurch werden wir zur Einsicht in neue und umfassendere Unterschiede und Zusammenhänge gebracht.
    Ebenso wie Hegel geht Schleiermacher in den Vorlesungen aus den 1820er Jahren auf Platon zurück. Anders als Hegel betont er aber, dass Dialektik zunächst eine Theorie über Gesprächssituationen ist, also eine Kommunikationstheorie. Ihr Ziel besteht in der Überwindung der widerstreitenden Meinungen bei den Diskussionsteilnehmern. Allerdings hatte Schleiermachers Begriff von Dialektik auf die spätere Entwicklung kaum Einfluss. Im weiteren 19. und im 20. Jh. spielt die Frage, was Dialektik sei, bei den unterschiedlichsten Philosophen eine Rolle: bei Kierkegaard, Marx, Engels, Sartre, Merleau-Ponty und Adorno. Die Überlegungen nehmen ihren Ausgangspunkt jeweils bei Hegel; doch wird dessen Dialektik-Begriff durchweg abgewandelt oder gar verworfen.
     
    Quelle: Stangl, Werner (1997). Handlungsforschung. "Werner Stangls Arbeitsblätter".
    http://paedpsych.jk.uni-linz.ac.at/INTERNET/ARBEITSBLAETTERORD/Arbeitsblaetter.html
     
     
     
    5.2 Literatur
    5.2.1 Wissenschaftstheoretische Grundlagen
     
    Adorno, T.W.: Aufsätze zur Gesellschaftstheorie und Methodologie. Frankfurt am Main 1970.
    Albert, H. & Stapf, K. H. (Hrsg.): Theorie und Erfahrung. Stuttgart 1979.
    Albert, H. & Topitsch, E. (Hrsg.): Werturteilsstreit. Darmstadt 1971.
    Capra, H. P.: Wendezeit. Bausteine für ein neues Weltbild. Bern 1983.
    Duerr, H. P. (Hrsg.): Der Wissenschaftler und das Irrationale. Band 1-3. Frankfurt am Main 1985.
    Feyerabend, P.: Wider den Methodenzwang. Frankfurt am Main 1978
    Feyerabend, P.: Erkenntnis für freie Menschen. Frankfurt am Main 1980.
    Goodman, N.: Weisen der Welterzeugung. Frankfurt am Main 1984.
    Gruschke, A.: Negative Pädagogik. Einführung in die Pädagogik mit Kritischer Theorie. Wetzlar 1988.
    Huschke-Rhein, B.: Wissenschaftsverständnis der geisteswissenschaftlichen Pädagogik. Stuttgart 1979.
    König, R. (Hrsg.): Handbuch der Sozialforschung. Band 1. Stuttgart 1967.
    Kuhn, T.: Die Struktur wissenschaftlicher Revolutionen. Frankfurt am Main 1977.
    Maturana, H. R. & Varela, F. J.: Der Baum der Erkenntnis. Bern/München/Wien 1987.
    Müller, A.: Erklären oder Verstehen? Zur dialektischen Begründung der Sozialwissenschaften. Frankfurt am Main 1978.
    Oelkers, J. & Tenorth, H. E. (Hrsg.): Pädagogik, Erziehungswissenschaft und Systemtheorie. Weinheim/Basel 1987.
    Roth, E. (Hrsg.): Sozialwissenschaftliche Methoden. Lehr- und Handbuch für Forschung und Praxis. München/Wien 1984.
    Sozialwissenschaftliche Forschung und Praxis für Frauen e. V. (Hrsg.): Frauenforschung oder feministische Forschung? Reihe: Beiträge zur feministischen Theorie und Praxis. Heft 11. Köln 1984.
    Toulmin, St.: Voraussicht und Verstehen. Ein Versuch über die Ziele der Wissenschaft. Frankfurt am Main 1981
     
    Tschamler, H. Wissenschaftstheorie. Eine Einführung für Pädagogen. Bad Heilbrunn 1983.
    Watzlawik, P. Wie wirklich ist die Wirklichkeit? München 1980.
    Watzlawik, P. (Hrsg.): Die erfundene Wirklichkeit. Wie wissen wir, was wir zu wissen glauben? München/Zürich 1981.
     
     
     
    5.2.2 Grundlagen empirischer Sozialforschung
     
    Atteslander, P.: Methoden empirischer Sozialforschung. Berlin 1985.
    Dechmann, M. D.: Teilnahme und Beobachtung als soziologisches Basisverhalten. Bern/Stuttgart 1978.
    Flick, U. & Kardorff, E. (Hrsg.): Handbuch Qualitative Sozialforschung. Grundlagen, Konzepte, Methoden und Anwendungen. München 1991.
    Friedrichs, J.: Methoden empirischer Sozialforschung. Reinbek 1973.
    Hopf, C. & Weingarten, E. (Hrsg.) Qualitative Sozialforschung. Stuttgart 1984.
    Huber, G. l. & Mandl, H. (Hrsg.): Verbale Daten. Eine Einführung in die Grundlagen und Methoden der Erhebung und Auswertung. Weinheim/Basel 1982.
    Kluge, N. & Reichl, H. (Hrsg.): Das Experiment in der Erziehungswissenschaft. Darmstadt 1979.
    König, R.: Das Interview. Köln/Berlin 1962.
    Kriz, J.: Methodenkritik empirischer Sozialforschung. Stuttgart 1981.
     
    Kromrey, H. Empirische Sozialforschung. Opladen 1998
    Lamnek, S.: Qualitative Sozialforschung. Band 1 und 2. München/Weinheim 1988.
    Maring, K. Die Inhaltsanalyse. Eine Einführung in Theorie, Methode und Praxis. Opladen 1983.
    Merten, K.: Inhaltsanalyse. Einführung in Theorie, Methode und Praxis. Opladen 1983.
    Mummendey, H. D.: Die Fragebogenmethode. Göttingen 1987.
     
     
     
     
    5.2 Fragensammlung
     
     
     
    1) Forschen und Handeln: Kommentieren und diskutieren Sie dieses Verhältnis aus unterschiedlichen Perspektiven.
     
     
    In einer allgemeinen Definition kann die Aufgabe der Wissenschaft darin gesehen werden:
     
    Abläufe in der uns ungebenden sozialen, aber auch materiellen Wirklichkeit zu erkennen
    und zu erklären, um daraus Möglichkeiten für das praktische Handeln abzuleiten und die
    Basis für eine Bewältigung und Veränderung dieser Wirklichkeit zu schaffen.
     
    Unterschied:
    Wissenschaftliche Form des Erkennens und Erklärens mit dem Versuch den Prozess der
    Erfahrung unter zu Hilfenahme von Forschungsmethoden zu systematisieren.(im Gegensatz
    zu alltäglichen)
    Methodologie fragt nach den Bedingungen der Möglichkeiten von Verstehen, Erklären, Beobachten, Analysieren, Vergleichen usw. sowie nach der Gültigkeit, der durch Forschung gewonnenen Aussagen.
    Die Begriffe Forschen und Handeln kann man auch mit der Forschungshandlung in Bezug
    bringen. Handlungsforschung ist eine synonyme Übersetzung des Begriffs action research den
    KURT LEWIN geprägt hat: Er wollte praxisnahe Hypothesen aufstellen.
    Lewin wollte eine Wissenschaft begründen, deren Forschungsergebnisse unmittelbaren
    Nutzen für Pädagogen und Sozialarbeiter. Es ist eine zu sozialen Handeln führende
    Forschung.
     
     
     
    2) Im Rahmen einer Untersuchung über Aspekte schulischer Leistung soll bei SchülerInnen einer Klasse u.a. die Bedeutung der Variablen Leistungsmotivation analysiert werden. Vier alternative Möglichkeiten zu einer Operationalisierung dieser Variablen stehen zur Diskussion. Welche der folgenden Operationalisierungen gewährleisten am besten bzw. wenigsten, daßdass die drei Gütekriterien des Messens erfüllt sind? Begründen Sie Ihre Entscheidung.
     
    a) Jede(r) SchülerIn bearbeitet denselben Fragebogen zur Erfassung von Leistungsmotivation. Dieser Fragebogen enthält 20 Items mit den vorgegebenen Alternativantworten "Ja" und "Nein". Als MeßwertMesswert wird die Anzahl der Zustimmungen zu den einzelnen Items verwendet.
     
    - Objektivität ist gewahrt, weil die Person die den Test durchführt nichts mit dem Befragten
    zu tun hat.
    - Validität: Grad der Genauigkeit ist gewahrt, weil das Untersuchungsinstrument das misst, was es zu messen beansprucht und der Inhalt der Fragen einen Bereich betrifft, der für alle Schüler gleich zugänglich ist. Befragte sind alle eine Gruppe von Schülern, jeder Schüler ist gleichwertig.
    - Reliabilität: ist auch gewahrt (weil nur ja und nein; anders bei ja/nein! vielleicht); eine mittlere Kategorie bringt Schwierigkeiten (z.B. weiß mehr: Protest; Irrelevanz-Antwort
     
    b) Eine exemplarische Unterrichtsstunde wird gefilmt. Danach wird registriert, wie häufig jede(r) SchülerIn sich auf Fragen des Lehrers gemeldet hat. Als MeßwerteMesswerte werden die Meldehäufigkeiten definiert.
     
    - Objektivität ist eigentlich gewahrt, da sich die Schüler auf die Fragen des Lehrers melden. Wäre nicht gewahrt, wenn die Schüler bestimmt würden durch den Lehrer.
    - Validität ist nicht gewahrt, da es die erste Unterrichtsstunde ist und das Melden der Schüler vom ihrem Gemütszustand (fühlen) abhängig ist, dass sich ein Schüler meldet dem es an diesem Tag nicht gut geht, ist weniger oft.
    - Reliabilität zu einem gewissen Grad gewahrt, weil das Messinstrument, der Film, eigentlich auch zuverlässig ist. (weiters auch für andere zugänglich)
     
    c) Der Klassenlehrer ordnet die SchülerInnen in eine vollständige Rangreihe ein. Der Schüler mit der geringsten geschätzten Leistungsmotivation erhält die Rangzahl 1, der mit der höchsten Rangzahl 30 zugewiesen. Als Messwerte werden die zugewiesenen Rangzahlen verwendet.
     
    - Objektivität ist hier auf keinen Fall gewahrt, da der Lehrer willkürlich nach seiner Schätzung Rangzahlen verteilt. Auch Reliabilität ist nicht gewahrt und Validität ist auch nicht gewahrt
    - Schätzung: Eine der schlechtesten Methoden!
     
    d) Jede(r) SchülerIn wird ein standardisiertes unlösbares Silbenrätsel vorgegeben. Als MeßwerteMesswerte werden die mit Sekundengenauigkeit gestoppten Zeiten definiert, die von der Vorgabe des Rätsels bis zum endgültigen Weglegen verstrichen sind.
     
    Objektivität: ist gewahrt. Person die den Test durchführt hat nichts mit dem Schülern zu tun.
    Validität und Reliabilität: Es hängt davon ab, wie motiviert ist der Schüler wirklich an diesem Tag; bzw. wie schnell ist er.
    - Weiters bei einem Standardisierten Rätsel können die vorgegebenen Antworten bzw. Fragen für jeden eine andere Bedeutung haben. Jeder interpretiert es anders.
     
     
    Ein Team von SozialwissenschaftlerInnen führt eine Untersuchung zum Thema Film und Aggressivität durch. Vor einem Kino, in welchem Der Terminator gezeigt wird, bitten sie im Anschluss an die Vorstellung zufällig aus dem Publikum ausgewählte Personen, einen Aggressionsfragebogen auszufüllen. Welche der folgenden Aussagen trifft in Hinblick auf das Random-Prinzip bei dieser Form der Stichprobenauswahl zu? (Begründen Sie kurz ihre Wahl):
     
    Die Bedingungen des Random-Prinzips waren erfüllt, weil die befragten Zuschauer per Zufall aus der Grundgesamtheit ausgewählt wurden.
     
    Beim Random-Prinzip müssen bestimmte Grundregeln beachtet werden:
    1. Die Grundgesamtheit aus de das Sample gezogen wird und die Einheiten (einzelne Personen, Gruppen, Schulen) müssen eindeutig definiert werden, damit keine Unklarheit darüber besteht, was das Sample eigentlich repräsentiert.
    2. Eine Grundgesamtheit, die aus vielen kleinen Einheiten besteht, eignet sich besser als eine, die aus einer geringeren Anzahl größerer Einheiten besteht.
    3. Einmal ausgewählt, kann eine Einheit, die zufällig bestimmt wurde, nur auf die Gefahr hin ausgelassen zu werden eine Verzerrung eintreten zu lassen. (lässt man z.B. Fragebögen von Personen, die nicht zu Hause sind, wenn der Interviewer sie befragen will oder die Befragung ablehnen, so hat dies ebenfalls eine Abweichung vom Random-Prinzip zur Folge)
     
    Die Bedingungen des Random-Prinzips wären erfüllt, weil die befragten Zuschauer per Zufall aus der Grundgesamtheit auswählt wurden. Trotzdem die Personen zwar zufällig ausgewählt wurden, sind die Bedingungen nicht erfüllt. Sollte eine oder mehrere Personen die Befragung verweigern oder keine Zeit haben, hätte dies eine Abweichung zur Folge. Weiters kommt es auch auf den Tag der Woche oder die Uhrzeit an. (z.B.: Ab Abend hätten wir eine andere Altersgruppe unter den Besuchern als unter Tags)
    Das Random-Prinzip verlangt eine eindeutig definierte Grundgesamtheit.
     
     
     
     
    Es könnte sein, dass einige der angesprochenen Zuschauer - etwa aus Eile - das
    Ausfüllen des Fragebogens verweigerten. Damit ist aber ihre Chance, in die Stichprobe aufgenommen zu werden, Null. Alle die hingegen nicht verweigert haben, hatten hingegen eine von Null verschiedene Chance in die Stichprobe aufgenommen zu werden. Unter Umständen liegt hier also eine verzerrte Stichprobe vor. Wenn sichergestellt wäre, daßdass alle angesprochenen Zuschauer den Fragebogen auch ausgefüllt hätten, wäre das Random-Prinzip jedoch gewahrt.
     
    Wie bereits bei Punkt a) erwähnt, ist bei diesem Prinzip das Risiko der Verzerrung sehr hoch. Wenn wirklich gewährleistet wäre, dass alle den Fragebogen ausfüllen müssten, wäre die Gefahr beseitigt. Wenn die Grundgesamtheit eindeutig definiert wäre und diese womöglich noch aus vielen kleinen Einheiten bestünde, wäre das Random-Prinzip gewahrt.
     
     
     
     
    Das Random-Prinzip war auf keinen Fall gewahrt.
     
     
     
    4) Welche der folgenden Aussagen sind richtig? Begründen Sie Ihre Entscheidung für richtige und falsche Alternativen.
     
    Der wichtigste Unterschied zwischen experimenteller Forschung und ex post facto Forschung liegt in der Kontrolle der unabhängigen Variablen.
     
    FALSCH!!! Der wichtigste Unterschied liegt in der fehlenden Möglichkeit der Kontrolle der unabhängigen Variablen. B
    Beim ex-post-facto Design muss man die Dinge so hinnehmen wie sie sind. (die unabhängige Variable ist schon aufgetreten!) Die Ex-post-facto Forschung hat aus der Sich der experimentelle Vorgehensweise, die prinzipielle Schwäche der mangelhaften Kontrolle der unabhängigen Variablen.
     
    Folgerungen aus ex post facto Ansätzen sind nicht generalisierbar, da hier keine repräsentativen Stichproben untersucht werden.
     
    Folgerungen konnten generalisierbar sein, denn auch hier kann sich die Aufgabe stellen, kausale Analyse zum Forschungsgegenstand leisten zu müssen. Jedoch kann die kausale Beziehung (nicht wie beim Experiment) exakt nachgewiesen werden.
     
    Bei einer ex post facto Forschung können die unabhängigen Variablen systematisch variiert werden.
     
    Nein / Falsch
    Ex-post-facto: Aufgabe, kausale Analyse zum Forschungsgegenstand leisten zu müssen. Hier
    kann man nicht wie bei Experimenten gezielt Personen bestimmter Gruppen zuweisen oder
    Treatments variieren, weil bei diesem Design, die unabhängige Variable schon aufgetreten
    ist (Bedeutung der Bezeichnung = nachträglich aus den bereits Geschehenen)
     
     
    Welche der folgenden Meinungen zur Stichprobentheorie ist richtig?
     
    Von einer Zufallsstichprobe kann man sagen, dass sie für die Population, aus der sie gezogen wurden, repräsentativ sein kann oder auch nicht.
     
    Ja! Für zufallsgesteuerte Auswahlen gilt, dass - innerhalb berechenbarer Fehlergrenzen und
    mit angebbarer Wahrscheinlichkeit - Repräsentativität für alle Elemente und Merkmale und
    Merkmalskombinationen sichergestellt werden kann, ohne dass Kenntnisse über die Struktur
    der Grundgenauigkeit vorhanden sein müssen.
     
    a) gilt auch für Stichproben, die nicht nach dem Zufallsprinzip gezogen wurden.
     
    Ad a) kommt auf die Größe der Stichprobe an
    Ad b) Die nichtzufallsgesteuerte Auswahlen wird sofern überhaupt ein Auswahlplan
    existiert Repräsentativität dadurch angestrebt, dass bestimmte Merkmale der
    Erhebungseinheiten und ihre Verteilung in der Grundgesamtheit als Auswahlkriterium
    benutzt werden.
    Ad a/b) Eine Stichprobe, die aufgrund eines nicht zufallsgesteuerten Auswahlverfahren
    zustande gekommen ist, kann Repräsentativität lediglich der Merkmale beanspruchen, die als
    Auswahlkriterium benutzt werden.
    Zufallsgesteuerte Auswahlen sind tendenziell repräsentativer in Hinblick auf sämtliche
    Merkmale der Erhebungseinheiten.
     
    Von einem Quotasample kann man sagen, dass es für die Population, aus der es gezogen wurde immer repräsentativ ist.
    Falsch (bzw. zum Teil richtig) - Bewusste, willkürliche Auswahlen. Wie bei den bewussten
    Auswahlen ist die angestrebte Grundgesamtheit zwar abgegrenzt, die Erhebungsgesamtheit
    ist jedoch weder physisch fixiert (Kartei /Liste) nach symbolischen repräsentativ.
    Zum Teil richtig, und zwar wenn der an Quotierungsmerkmalen (Geschlecht, sein) und der
    andere Teil nicht, weil man nicht zwischen zwei Merkmalen oder Alternativen wählen kann.
    Repräsentativität:
     
    Welche der folgenden Formulierungen stellen am ehesten eine wissenschaftliche Hypothese dar? Diskutieren sie alle Alternativen.
     
    Eine Hypothese gilt nur vorläufig u. muss durch Beobachtungen u Experimenten überprüfbar sein.
    1. Hypothesen die sich in der Konfrontation mit der empirischen Wirklichkeit als unzutreffend erweisen, gelten als falsifiziert und sind unter Berücksichtigung neu gewonnenen Erkenntnisse zu korrigieren und erneut empirisch zu testen.
    2. Hypothesen die sich in der Konfrontation mit der empirischen Wirklichkeit als zutreffend erweisen gelten als bestätigt. (Sie sind dann entweder verschärften Tests zu unterwerfen, wenn sie sich wiederum bewähren, werden sie stark verallgemeinert und wieder empirisch überprüft)
    3. Nur solche Hypothesen sind zulässig, die sich auf erfahrbare Realität beziehen. Ein empirischer Bezug der benutzten Begriffe muss gegeben sein. (z.B.: gute Beispiele: Tisch, Wissenschaft; schlechte: gute Fee, Zentaur)
    4. Die formulierten Hypothesen müssen eine Beschreibung von Zusammenhängen
    oder Sachverhalten bieten, die ebenfalls prinzipiell erfahrbar sind.
     
    5. Die Sätze müssen formuliert sein, dass sie prinzipiell widerlegbar sind. Nicht zugelassen sind analytisch wahre, d.h. aus logischen Gründen wahre Aussagen, sowie ES-GIBT Aussagen
     
     
    Autoritäre Unterrichtsmethoden führen zu einem schlechten Lernerfolg von SchülerInnen.
     
    Diese Aussage kann eine Hypothese sein, wenn die oben genannten Voraussetzungen zu
    treffen. D.h. Muss sich mit der Konfrontation der empirischen Wirklichkeit als zutreffend
    erweisen. , muss sich auf erfahrbare Realitäten beziehen, (Zusammenhänge und
    Sachverhalte, richtige Formulierung)
     
    Problem: Aussage enthält bewertende Aspekte. Je.... / desto... (Je autoritärer die
    Unterrichtsmethoden, desto schlechter die Lernerfolge)
     
    Antiautoritäre Erziehung macht frei.
     
    Es müssen dieselben Bedingungen der Hypothesen gelten. Das Adjektiv ,,Frei" lässt sich
    empirisch-analytisch nicht überprüfen. Frei bedeutet für jeden etwas anderes...
     
    Welche Auswirkungen haben verschiedene Arten von Lernanreizen auf das Interesse von SchülerInnen am Fach.
     
    Hier handelt es ich um keine Hypothese (Aussage), sondern um eine Frage. Am wenigsten zutreffend als Hypothese.
     
    Das Verhalten von SchülerInnen bei Gruppenarbeitsaufträgen ist zu einem gewissen Teil abhängig von ihrem Sozialisationshintergrund.
     
    Hier handelt es sich um keine Aussage (Hypothese) sondern um eine Behauptung.
    Es besteht kein kausaler Bezug. (Wenn-dann-Bezug) Kausal: Jede Hypothese formuliert
    einen kausalen Bezug. z.B.: Wenn ich zuviel Zucker zu mir nehme, dann wird der
    Zuckerspiegel in meine Körper angehoben.
     
     
     
    7) Beurteilen Sie die folgenden Untersuchungsansätze, begründen Sie Ihre Entscheidung und beschreiben sie grundlegende Aspekte der verschiedenen Forschungsdesigns.
     
    Ein Forscherteam plant, Ursachen von Antisemitismus zu untersuchen. Es wird von der Hypothese ausgegangen, dass Kinder von Eltern mit einen autoritären Erziehungsstil zu Antisemitismus tendieren. Den Kindern wird ein Fragebogen vorgelegt.
     
    Meiner Meinung nach ist ein Fragebogen in diesem Fall nicht ideal. Dies
    hängt natürlich vom Alter der Kinder ab, jedoch ist es schwierig, die Fragen kindergerecht
    zu stellen (versteht das Kind die Fragen bzw. die Antworten). Einen Fragebogen würde ich
    bei älteren Personen (nicht bei Kindern) verwenden.
    Eine weitere Frage ist, ob das Kind den Begleittext versteht. Ich würde an dieser Stelle ein
    nicht standardisiertes qualitatives Interview vorschlagen, und zwar genau z.B.: das
    problemzentrierte Interview hier kann das Kind frei erzählen und der Interviewerlnn kann
    auf das Kind eingehen und weiterhelfen, wenn es Fragen nicht verstehen sollte. Ein Nachteil
    ist jedoch die Schwierigkeit der Auswertung.
    Fragebogen: Fragen, Fragenreihenfolge bzw. Antworten sind vorgegeben und werden in gleichen Wortlaut und gleicher Reihenfolge allen Befragten gestellt. Beim Fragebogen sind auch Quelle, Sprache und Formulierungen zu beachten.
     
    Um Gedächtnisleistung unter Stress zu untersuchen, werden Versuchspersonen gebeten, sich eine längere Folge von
    vorgelegten Ziffern zu merken. Die Experimentalgruppe wird danach kurzzeitig bestimmten stresserzeugenden Einwirkungen ausgesetzt, während die Versuchspersonen der Kontrollgruppe sich entspannen können. Anschließend wird bei beiden Gruppen erfasst, an wie viele Ziffern sie sich erinnern können.
     
    Das ist ein Laborexperiment einer der Nachteile, dass es realitätsfremd sein könnte.
     
    Es gilt, dass die Auswirkungen möglichst aller Randbedingungen mit Ausnahme des
    experimentellen Stimulus bekannt sein sollten, sodass die Äquivalenz der Versuchs-
    und Kontrollgruppe angenommen werden kann. Bei Experimenten mit Menschen (wie
    in diesem Fall) zeichnet sich dieses Design durch folgende Merkmale aus:
    1. Es existiert eine Experimentalgruppe G 1, die dem Treatment (experimenteller Stimulus) also der auf ihre Auswirkung hin zu untersuchenden Maßnahme, ausgesucht wird.
    2. Es existiert wie in allen wesentlichen Merkmalen äquivalente Kontrollgruppe G2, die dem Treatment nicht ausgesetzt wird.
    3. In beiden Gruppen werden vor dem Zeitpunkt des Treatments und danach die Ausprägungen der abhängigen Variablen gemessen
    4. Stemmen vor dem Treatment in der Experimental- und in der Kontrollgruppe die Verteilungen der abhängigen Variablen überein, und sind nach dem Treatment Unterschiede zwischen den Gruppen feststellbar, dann werden diese Unterschiede als Effekt des Treatments interpretiert.
     
     
     
    Ihm Rahmen einer hochschuldidaktischen Untersuchung werden StudentInnen nach Zufall auf drei verschiedene Seminargruppen aufgeteilt, in denen der gleiche Stoff auf verschiedene Art vermittelt werden soll. Am Semesterende werden Tests durchgeführt.
     
    Hier könnte man z.B.: die Evaluationsforschung in Betracht ziehen. Hier wird mit Hilfe empirischer Information bewertet.
     
    Weiters werden Rand- und Rahmenbedingungen in bestimmter Weise verändert und die dadurch beabsichtigter weise hervorgerufenen Effekte kontrolliert (wie dies bei uns der Fall ist). Weil der Stoff auf verschiedene Art vermittelt wird und am Ende durch einen Test, der Effekt kontrolliert. So wird dann auch die Effektivität abgeschätzt. (Erfolg des Programms: Effektivität; bringt es was den Stoff auf verschiedene Art vorzutragen bzw. welche war die Erfolgreichste bzw. Effektivste)
    Eine andere Möglichkeit wäre z.B.: die der Parallelisierten Gruppen. Von allen Versuchspersonen wird die Variable erhoben, nach der untersucht werden soll. Dies erfordert jedoch einer Vortestsitzung (die in unserem Fall gegeben sein müsste), um das Grundwissen festzustellen vom dem ausgegangen werden kann.
     
    Für k (= Anzahl) experimentelle Bedingungen benötigt man k parallelisierte Gruppen. Man sucht aus dem Datenmaterial jeweils k Versuchspersonen mit gleichen Vortestwerten aus. Diese k Versuchspersonen werden dann per Zufall auf die k experimentellen Bedingungen verteilt.
    Parallelisierte Gruppen werden in der Praxis für die Erhebung von Therapieerfolgen und Lernerfolgen angewendet. Deshalb würde meine Wahl auf diese Untersuchungsmethode fallen.
     
     
    8) Beschreiben Sie grundlegende Unterschiede zwischen einem einfachen Zufallsauswahlverfahren und einem geschichteten Random-Sample.
    Einfaches Zufallsauswahlverfahren: (random sample)
     
    Jedes Mitglied der Grundgesamtheit hat die gleiche Chance in der Stichprobe aufgenommen
    zu werden.
    Die Auswahl wird zufällig getroffen Grundregel Seite 27 Skriptum
    hier ist es nicht notwendig, vorher etwas über spezielle Merkmale der Grundgesamtheit oder deren
    Verteilung zu wissen. Bei weit regional gestreuten Grundgesamtheiten ist das
    Verfahren mühsam und aufwendig. (zeitaufwendig und kostenaufwendig)
    Voraussetzung für ein random sample ist jedenfalls eine symbolische Repräsentanz der
    Grundgesamtheit. (Liste, Datei)
    Geschichte Zufallsauswahl:
    Hier gilt nicht mehr die Forderung: jede Einheit muss die gleiche Chance haben, in die
    Auswahl aufgenommen zu werden. Die Forderung lautet: Jede Einheit muss ein bekannte
    Chance haben, gezogen zu werden.
     
    Ausgangspunkt dieses Verfahrens ist es, Stichproben auch getrennt für bestimmte
    Gruppen von Fällen auszuwerten.
    Es ist bereits bei der Auswahl sicherzustellen, dass die Gruppen in der Stichprobe zuverlässig
    repräsentiert sind. (daher Aufteilung in Teil-Grundgesamtheiten)
    Es gilt daher hier die Aussage nicht mehr, die für die einfache Zufallsauswahl gemacht wird.
    nämlich dass Kenntnisse über die Grundgesamtheit nicht erforderlich sind.
     
     
     
    9) Verdeutlichen Sie den Begriff Zufall im Kontext der Stichprobentheorie.
     
    Man unterscheidet zwischen: nicht zufallsgesteuerten Auswahlen und zufallsgesteuerten Auswahlen
    Bei nicht zufallsgesteuerten Auswahlen wird Repräsentativität dadurch gesteuert, dass bestimmte Merkmale der Erhebungseinheiten und ihre Verteilung in der Grundgesamtheit als Auswahlkriterium benutzt werden.
    Bei zufallsgesteuerten Auswahlen wird die Entscheidung darüber, ob ein Element der Grundgesamtheit auch Element der Stichprobe wird, der Entscheidung des Forschers entzogen und durch einen kontrollierten Zufallsprozess ersetzt.
    Stichprobe kam aufgrund eines nicht zufallsgesteuerten Auswahlverfahrens zustande. Sie kann lediglich Repräsentativität hinsichtlich der Merkmale beanspruchen, die als
    Auswahlskriterien benutzt werden.
    Zufallsgesteuerte Auswahlen sind tendenziell repräsentativ im Hinblick auf sämtliche
    Merkmale der Erhebungseinheiten.
     
    Der Begriff Zufall ist in diesem Kontext genau definiert. (ein kontrollierbarer Kern soll
    übrig bleiben) Zufall im wissenschaftlichen Sinn bedeutet etwas ganz anderes als der
     
    Begriff Zufall im alltäglich gebräuchlichen Sinn.
     
     
     
    Wissenschaft und Normativität: Kommentieren Sie dieses Verhältnis aus der Sicht unterschiedlicher wissenschaftstheoretischer bzw. erziehungswissenschaftlicher Positionen.
     
    Wissenschaftstheorie: Sammelbegriff für alle Metawissenschaftlichen Erörterungen über
    Wissenschaft. Zu denen gehört insbesondere die logische Analyse der Begriffe Wissenschaft, der
    wissenschaftlichen Methoden und der Wissenschaftsvoraussetzung (Lexikon der Soziologie).
    Wissenschaft: meta = über Wissenschaft reden
    Definition: Wissenschaftstheorie = Nachdenken über Wissenschaft - unter welchen
    Bedingungen Wissenschaftstheorien entstehen (bedeutend im Sinn richtig /gut oder wie soll es
    sein) Normativität (normativ): Bezeichnung für Aussagen, in denen eine Bewertung ausgedrückt
    wird (z.B.: richtig, gut) verbunden mit der Forderung, sich dieser Bewertung ausschließen!
    (Lexikon der Soziologie) Gegenbegriff'= deskriptiv: bezeichnet Aussagen, die lediglich einen
    Beschreibung enthalten oder sich bewertende Aussagen enthalten.
    Ausgangspunkt dieses wissenschaftstheoretischen Position bildet das Verständnis, dass eine
    Aufgabe von Wissenschaft sei, Aussagesystem über die Wirklichkeit zu entwerfen, die dem
    empirischen Sinnkriterium zu genügen haben. + Rationalität, Allgemeingültigkeit,
    Nachprüfbarkeit, Werturteilsfreiheit.
    Man will keine normativen Ansichten. (Aspekte)
     
    Die kritische Erziehungswissenschaft wendet sich sowohl gegen normativ
    geisteswissenschaftliche wie empirisch-analytische Theorietradition! Erziehungswissenschaft
    wird unter die Sozialwissenschaft eingeordnet. Das Ziel der Sozialwissenschaft ist die
    Öffentlichkeit über soziale Erscheinungen wissenschaftlich aufzuklären.
     
    Verdeutlichen Sie den Begriff Messen aus sozialwissenschaftlicher Sicht.
     
    Das Messen von sozialen und gesellschaftlichen Phänomenen ist eng mit an die Sprache als
    Bezugssystem gebunden und erfordert die Operationalisierung von theoretischen
    Konstrukten.
    Operationalisierung: Übersetzung von Konstrukten, Begriffen der theoretischen in solche der
    empirischen Ebene. Grundbausteine stellen Aussagen (= Item, Statement) dar
    Das Ausmaß der Zustimmung oder Ablehnung einer Versuchsperson zu einem Statement
    (wird auf einer mehrstufigen Skale gemessen) gilt als Indikator für die Einstellung der
    Versuchsperson zu einem Sachverhalt oder Problem.
    Die Auswahl der Items = Grundproblem der Konstruktion con Messinstrumenten im Bereich der Sozialwissenschaft. Um Daten zu erheben müssen wir messen.
    Unter Messen kann (im engeren Sinn) die systematische Zuordnung einer Menge von Zahlen
    oder Symbolen zu den Ausprägungen einer Variablen gemeint werden.
    Die Zuordnung oder genauer die Abbildung soll s erfolgen, dass die Relation unter den
    Zahlenwerten den Relationen unter den Objekten entsprechen, die sie abbilden.
     
    Gütekriterien des Messens:
    Objektivität: Graf der Unabhängigkeit des Untersuchungsinstruments von der Person, die die Untersuchung durchführt.
    Relativität: Grad der Genauigkeit mit dem ein Erhebungsinstrument ein Merkmal misst. Egal ob das Merkmal überhaupt misst (=Formales Gütekriterium)
    Validität: Grad der Genauigkeit mit dem ein Untersuchungsinstrument misst, was es zu messen beansprucht (=inhaltliches Gütekriterium) Validitätsüberprüfung erfolgt durch Extremgruppenbildung; Vergleich mit einem Außenkriterium bzw. Expertenbefragung etc.
     
     
    Was macht den Naiven Empirismus naiv bzw. bringt dem Kritischen Rationalismus das Attribut kritisch-rational? Berücksichtigen Sie bei der Beantwortung dieser Frage auch grundlegende und historische Aspekte des gegenständlichen wissenschaftstheoretischen Paradigmas.
     
    Naiver Empirismus (bzw. Positivismus): Die Philosophen lehnen Vernunft als Grundlage
    der Erkenntnis ab und Postulieren dagegen ein Tabula-rasa-Bild es menschlichen Verstandes.
    Vernunft als Grundlage der Erkenntnis wird abgelehnt (Locke, Berkeley); naive Vorstellung von
    Erkenntnis.
     
    Historisch betrachtet hat sich die moderne empirisch-analytische Wissenschaftsauffassung in
    den Sozialwissenschaften aus dem Empirismus bzw. Positivismus. Wahrnehmen = Erkennen
    (Bacon, Hume)
     
    zwei wichtige Folgerungen:
    a) Dem Wahrnehmenden wird eine passive Rolle unterstellt. Man kann die Welt, wenn man sie unverfälscht aufnehmen will, nur durch photographische Abbildungen im eigenen Organismus erleben und diese Wahrnehmungen sind alles was den Geist ausmacht.
    b) Es kann kein nicht-relevantes Wissen geben und keine irrelevante Wissenschaft, sofern sie nur empirisch verfährt.
     
    Wissenschaft hat vom Tatsächlichen, vom Wirklichen auszugehen. Wissenschaft basiert auf Wirklichem und Wahrnehmung.
    Kritischer Rationalismus: begründet von Karl Popper mit dem Buch "Logik der
    Forschung". Popper: In der Wissenschaft kann man maximal wissen, was nicht stimmt. -.
    Skeptisches Konzept
    Der Weg ist das Ziel, die Welt zu erkennen, sie neu zu entdecken. Popper schlägt statt dem
    Verifiktionprinzip, das Falsifiktionsprinzip vor.
     
    Der kritische Rationalismus bleibt zwar einerseits in der Tradition empirischer
    Wissenschaftstheorien, unterzieht aber gleichzeitig alle Versuche, Wissen als sicheres
    Wissen zu begründen, einer radikalen Kritik
    Nach Popper sollte der Wissenschaftler nicht versuchen Theorien und Hypothesen zu belegen (verifizieren) sondern er muss versuchen, sie zu widerlegen (-falsifizieren).
    Wenn eine Theorie häufig der Bewährungsprobe eines Falsifikationsversuchs unterzogen wurde, schläft Popper vor, sie als bewährt zu bezeichnen. (was nicht heißt, dass sie richtig oder falsch ist)
    Popper zitiert, dass wissenschaftliche Theorien mit Netzen verglichen werden können, die ausgeworfen werden, um Welt, Wirklichkeit, Tatsachen und Realität einzufangen, um sie zu rationalisieren, zu erklären und zu beherrschen.
    Verifikationsprinzip (log. Empirismus) Falsifikationsprinzip (kritischer Rationalismus-Kritik an der eigenen Wahrnehmung)
     
    Verdeutlichen Sie den Begriff Repräsentativität im Kontext der Stichprobentheorie.
     
    Repräsentativität in diesem Zusammenhang heißt: Es besteht Kongruenz zwischen theoretisch definierter Gesamtheit und tatsächlich durch die Stichprobe repräsentierter Gesamtheit oder die Stichprobe ist ein verleiertes Abbild einer angebbaren Grundgesamtheit.
    Es kann kein Sample geben, das überhaupt nichts abbildet also für überhaupt keine
     
    Grundgesamtheit repräsentativ wäre! Jede beliebige Teilmenge von Fällen ist eine
    repräsentatives Abbild für irgendeine Gesamtheit von Fällen die Frage ist für welche
    Gesamtheit?
    Die Fragestellung im Zusammenhang mit dem Gütekriterium Repräsentativität darf daher nicht
    lauten, ob ein Sample eine Grundgesamtheit abbildet, sonder welche Grundgesamtheit es
    abbildet
     
    Ohne präzise Angabe der Grundgesamtheit kann über die Repräsentativität nicht
    entschieden werden. Erst durch die Orientierung an einer definierten angestrebten
    Grundgesamtheit lasse sich die Frage nach der Repräsentativität einer Stickprobe bejahen
    oder verneinen.
     
     
     
    Verdeutlichen Sie den Begriff Schichtung im Kontext der Stichprobentheorie.
     
    Geschichtete Zufallsauswahl:
    Forderung: Jede Einheit muss eine bekannte Chance haben, gezogen zu werden.
    Ausgangspunkt für geschichtetes Auswählen ist die Absicht, die Stichproben getrennt für
    bestimmte Gruppen von Fällen auszuwerten.
    Hier ist es nicht sinnvoll schon bei der Auswahl sicherzustellen, dass diese Gruppe in der
    Stichprobe zuverlässig repräsentiert sind. es sind daher Kenntnisse über die
    Grundgesamtheit erforderlich.
    Als Schichtungsmerkmale wählt man solche, die mit dem Untersuchungsgegenstand in Beziehung stehen. Dabei ist es wichtig, dass die Informationen einen aktuellen Stand aufweisen. Weiters sollte man nur Schichten verwenden, die genügend groß sind, so dass beim Sample keine erheblichen Schwierigkeiten auftreten, auch die entsprechende Person ausfindig zu machen.
    Ausnahmen werden nur dann getroffen, wenn die Merkmale der vorgesehenen Schicht den Gegenstand der Untersuchung bilden.
     
    Im Rahmen eines pädagogisch-psychologisch Projektes soll die Auswirkung von Prüfungsangst auf die schulische Leistungsfähigkeit von SchülerInnen untersucht werden. Welches Design würden Sie für diese Untersuchung wählen? Entwerfen Sie dazu jedenfalls ein experimentelles Forschungsdesign und diskutieren Sie Vor- und Nachteile verschiedener Alternativen.
     
    1. Möglichkeit würde ich das Experiment (allein) vorschlagen. Wie und in welcher Stärke wirkt sich X
    (als Ursache) auf Y (als Folge) aus! Auswirkung der Prüfungsangst auf die Schulische Leistungsfähigkeit. Es ist eine Planmäßige Beobachtung. Im Mittelpunkt steht das Bemühen, für die Datenerhebung Bedingungen zu schaffen, in denen das Ursache-. Wirkungs-Prinzip zwischen Maßnahme und Effekt zur Geltung kommen kann.
    a) Anforderung: die Einflussgröße (Maßnahme, Treatment) wird vom Forscher kontrolliert in die Untersuchungssituation eingeführt, alle anderen denkbaren Einflussgrößen werden weitgehend abgeschirmt.
    b) Anforderung: Es muss parallel zur Experimentalsituation eine geeignete
     
    Vergleichssituation existieren. (Nachteil)
    2. Möglichkeit wäre das Feldexperiment, welches den Vorteil hat, anwendungsorientiert zu
    sein. Ihr Ziel ist es, soziale Prozesse und Strukturen, unabhängig vom wissenschaftlichen
    Forschungsprozess, zu erfassen und zu analysieren.
    Ein weiteres Ziel ist es, die Logik des klassischen Experiments auch auf
    Untersuchungsanordnungen im sozialen Feld zu übertragen und dort zu realisieren.
    Nachteile:
    Dies ist jedoch fast nie im vollen Umfang möglich
    - Häufig ist es auch nicht möglich Vorher-Messungen wichtiger Variablen durchzuführen
    - Probleme verursachen auch die Kontrolle des Treatments sowie die Abschirmung der übrigen Einflussgrößen.
     
     
     
    "Worüber man nicht sprechen kann, darüber sollte man schweigen". Kommentieren Sie diesen Satz von Ludwig Wittgenstein im Kontext des empirisch-analytischen Wissenschaftsverständnisses. Behandeln Sie dabei historische Dimensionen und grundlegende Prämissen dieses Ansatzes.
     
    Empirisch heißt erfahrungsgemäß: Also auf Erfahrung, Befragung, Experiment usw. basierend.
    Analytisch heißt: in seine Bestandteile auflösend- der zu untersuchende Gegenstand wird in seine
    Bestandteile zerlegt und deren Beziehungen zu einander werden theoretisch rekonstruiert, hierzu
    dient die Mathematik als Hilfsmitte.
    Der empirisch-analytische Ansatz orientiert sich an der Wahrnehmung und Erfahrung. Erkenntnis
    ist nur über die Wahrnehmung möglich. Deshalb müsste ich zuerst wahrnehmen, um darüber
    sprechen zu können. Wobei Dinge, die nicht wahrgenommen werden können, nicht artikuliert
    werden. sprich schweigen sollte.
    Man kann aber Wahrnehmung aber auch mit Sprache beschreiben! Das empirisch-analytische
    Wissenschaftsverständnis:
    - Allgemeingültigkeit: Theorien enthalten allgemeingültige Aussagen über einen Realitätsbereich
    - Rationalismus: Theorien müssen nach dem Gesetz der Logik richten und müssen formal-logisch richtig sein
    - Werturteilsfreiheit: Wissenschaftl. Aussagen dürfen nur wertfreie Aussagen enthalten- Distanz zur Bewertung
    - Nachprüfbarkeit: Jede Wissenschaftstheorie muss an der Wirklichkeit überprüfbar sein
    In Wittgensteins Aussage müssten alle vier Postulate zutreffen.
    Der naturwissenschaftliche Zugang- wissenschaftliche Methode besteht darin Hypothesen zu formulieren. Wahrscheinlich wahre Aussagen der Wirklichkeit. Nach Wittgenstein könnte es sein, dass man auch darüber nicht sprechen dürfte, da dies nur wahrscheinlich wahre Aussagen sind.
    Man braucht Theorien, wahres Wissen über die Welt (logische Prinzip). Alle Erkenntnis
    basiert auf Beobachtungen und Erfahrungen. Die Wahrheit bezieht sich auf die Wirklichkeit.
    Darüber dürfte man nach Wittgensteins Verständnis sprechen über wahres Wissen.
    Wissenschaft ist an die Wirklichkeit gebunden.
     
     
     
    Ich habe mich an der Gründung dieser Gesellschaft ausgesprochenermaßen nur deshalb eifrig beteiligt, weil ich hier einen Ort wertfreier wissenschaftlicher Arbeit und Diskussion zu finden hoffte ... Auf der Berliner Tagung des Jahres 1912 haben mit einer einzigen Ausnahme sämtliche offizielle Referenten dem Statutengrundsatz (der Enthaltung vom Werturteil) zuwidergehandelt - was mir als Beweis seiner Undurchführbarkeit dauernd entgegengehalten wird ... Mögen nun diese Herren, von denen keiner es sich mal verkneifen kann, einem mit ihren, mir unendlich gleichgültigen, subjektiven Wertungen zu behelligen, gefälligst unter sich bleiben! Ich habe es absolut satt, stets neu als Don Quijote eines angeblich undurchführbaren Prinzips aufzutreten und peinliche Szenen herbeizuführen.
    Mit diesen Worten zieht sich 1912 nach dem 2. Deutschen Soziologentag ein Mitglied der Deutschen Gesellschaft für Soziologie beleidigt aus der Leitung dieser zurück. Kommentieren Sie seine Gründe und beschreiben Sie seine wissenschaftstheoretische Heimat. Behandeln Sie dabei historische und aktuelle Dimensionen des gegenständlichen Ansatzes.
     
    Das Mitglied zog sich zurück, weil es erhoffte, dass wertfreie wissenschaftliche Arbeit
    möglich und durchführbar ist.
     
    Er war Anhänger des empirisch-analytischen Paradigmas.
    Denn die anderen Mitglieder schienen der Erhaltung von Werturteilen und subjektiven
    Wertungen zu erliegen.
    Seine These basierte auf dem Empirismus, sprich objektiver Wertung Wertbezogenheit.
    Seine Kollegen entsprachen eher der Hermeneutik: subjektiven Wertung Wertbezogenheit.
    Hier trafen zwei Richtungen aufeinander: Empirismus / Hermeneutik.
    Empirisch heißt ,,erfahrungsgemäß" also auf Erfahrung, Beobachtung, Befragung, Experiment usw. basierend.
    Analytisch heißt zunächst einmal ,,in seine Bestandteile auflösend" der zu untersuchende Gegenstand wird in seine Bestandteile zerlegt und deren Beziehungen untereinander werden theoretisch rekonstruiert, wobei die Mathematik als Hilfsmittel dient.
    Dieser Rückgriff auf mathematisch naturwissenschaftliche Methoden ist eines der Charakteristika empirisch-analytischem Vorgehens innerhalb der Sozialwissenschaften. So hat sich der Begriff quantitativ mittlerweile fast zu einem Synonym für empirisch-analytische Forschung entwickelt. Das Attribut qualitativ soll das Wissenschaftsverhältnis einer hermeneutisch orientierten Wissenschaft charakterisieren.
    Nur eine wissenschaftliche Methode für alle Wissenschaften eine Grundlage =
    Naturwissenschaft: Naturwissenschaftliche Methode besteht darin Hypothesen
    (=wahrscheinliche wahre Aussagen der Wirklichkeit zu formulieren)
     
    Empirismus: sieht nicht die Vernunft, sondern die Erfahrung als Quelle allen Wissens.
    Quantitative Paradigma: harte Daten (empir. -analytisch)
    Qualitative Paradigma: weiche Daten (hermeneutisch)
    Nomothetische Wissenschaftsverständnis: Nomos: Gesetz und These od. Behauptung (emp.analytisch)
    Idiographisches Wissenschaftsverständnis: Idiom: Eigentümlichkeit, Grafik, (Be-) Schreibkunst (hermeneutisch)
     
    Hermeneutik: geht interpretierend, verstehend an die Dinge heran. Wilhelm Dilthey war der
    Begründer.
    In der Tradition der empirischen Wissenschaft versucht man die Wissenschaftlichkeit der
    Erziehungs- bzw. Sozialwissenschaft durch Orientierung an der Wissenschaft zu sichern. Eine
    Alternative besteht darin, für die Wissenschaften von Menschen eine eigene wissenschaftliche Grundlegung zu schaffen dies ist der Ansatz der Hermeneutik, die der Erziehungswissenschaft als eine "verstehende" Wissenschaft konzipiert.
    Das heutige Konzept nach Weber (Max):
    Werturteil: gehört nicht in die Wissenschaft
    Wertbezogenheit: soll wissenschaftlich sein (Normativität sich bewertenden Aussagen zu
    erhalten)
     
    Beschreiben Sie Grundzüge des empirisch-analytischen Wissenschaftsverständnisses und diskutieren Sie dieses Paradigma aus der Sicht der hermeneutischen Tradition.
     
    Sind völlig beschiedene Ansichtsweisen.
    Empirisch heißt "erfahrungsgemäß" - also auf Erfahrung, Beobachtung, Befragung, Experiment usw. basierend.
    Analytisch heißt zunächst einmal "in seine Bestandteile auflösend" der zu untersuchende Gegenstand wird in seine Bestandteile zerlegt und deren Beziehungen untereinander werden theoretisch rekonstruiert, wobei die Mathematik als Hilfsmittel dient.
    Dieser Rückgriff auf mathematisch naturwissenschaftliche Methoden ist eines der Charakteristika empirisch-analytischem Vorgehens innerhalb der Sozialwissenschaften.
     
    So hat sich der Begriff quantitativ mittlerweile fast zu einem Synonym für empirischanalytische Forschung entwickelt. Das Attribut qualitativ soll das Wissenschaftsverhältnis einer hermeneutisch orientierten Wissenschaft charakterisieren.
    Nur eine wissenschaftliche Methode für alle Wissenschaften eine Grundlage =
    Naturwissenschaft: Naturwissenschaftliche Methode besteht darin Hypothesen
    (=wahrscheinliche wahre Aussagen der Wirklichkeit zu formulieren)
     
    Empirismus: sieht nicht die Vernunft, sondern die Erfahrung als Quelle allen Wissens.
    Quantitative Paradigma: harte Daten (empir.-analytisch)
    Qualitative Paradigma: weiche Daten (hermeneutisch)
    Nomothetische Wissenschaftsverständnis: Nomos: Gesetz und These od. Behauptung (emp. -analytisch)
    Idiographisches Wissenschaftsverständnis: Idiom: Eigentümlichkeit, Grafik, (Be-) Schreibkunst (hermeneutisch)
    Hermeneutik: geht interpretierend, verstehend an die Dinge heran. Wilhelm Dilthey war der
    Begründer.
    In der Tradition der empirischen Wissenschaft versucht man die Wissenschaftlichkeit der
    Erziehungs- bzw. Sozialwissenschaft durch Orientierung an der Wissenschaft zu sichern. Eine
    Alternative besteht darin, für die Wissenschaften von Menschen eine eigene wissenschaftliche
    Grundlegung zu schaffen dies ist der Ansatz der Hermeneutik, die der
    Erziehungswissenschaft als eine "verstehende" Wissenschaft konzipiert.
     
    Die programmatische Unterscheidung von Naturgegebenheiten und sozialen Prozessen als genuin unterschiedliche Gegenstandbereiche einer wissenschaftlichen Betätigung kann als allgemeinster Unterschied zwischen empirisch-analytisch und hermeneutischen Ansatz gesehen werden.
     
    Es existieren zwei Wissenschaften:
    Naturwissenschaft (natural-sciences): Gesetzmäßigkeiten finden in der Natur erklären; von
    Menschen nicht geschaffen und manipulierbar.
     
    Geisteswissenschaft (moral sciences): andere Aufgaben und Methoden z.B.: gesellschaftl.
    Utopien, zu entwickeln als sinngebende Instanz zu operieren; von Menschen geschaffen und
    veränderbar. (hinter die Dinge schauen)
     
    Stewart Mill definiert:
    Erklären = Sache der Naturwissenschaft (natural-sciences) WARUM
    Verstehen = Geisteswissenschaft Wissenschaft des Menschen (moral-sciences) WOZU
     
     
     
    Beschreiben Sie grundlegende Unterschiede zwischen einem Quota-Auswahlverfahren und einem geschichteten Random-Sample.
     
    Quoten-Auswahl (quota-sample): oft benutztes Auswahlverfahren in der kommerziellen
    Forschung.
    Es handelt sich um eine Zwischenform von bewusster und willkürlicher Auswahl.
    Bewusst bzw. gezielt werden IntervierInnen Quoten von Merkmalen vorgegeben, die die
    befragten Personen aufweisen müssen. (z.B.: Alter; Geschlecht; Wohnbereich)
    Im Rahmen dieser Quoten hat man freie Hand, wen man befragt. Die Auswahl ist also in
    Hinblick auf ihre Planung partiell gezielt. Sie ist darüber hinaus im Zuge ihrer
    Realisierung partiell willkürlich.
    Beim Quotenverfahren beruht die Bestimmung der in eine Erhebung einzubeziehenden
    Einheiten letztlich auf Ermessen. Kennzeichnend ist, dass hierbei diese
    Ermessungsentscheidungen im Stadium der Feldarbeit von den Erhebungssubjekten
    (Interviewer) selbst getroffen werden.
    Es sind auch hier Kenntnisse der Grundgesamtheit erforderlich.
     
    Random-Sample (Zufallsauswahl)
    Geschichtete Zufallsauswahl (Geschichtetes Random-Sample)
    Forderung lautet: Jede Einheit muss eine bekannte Chance habe, gezogen zu werden.
    Ausgangspunkt für eine geschichtete Auswahl ist es, Stichproben auch getrennt für bestimmte Gruppen von Fällen anzuwenden.
    Es ist bei der Auswahl sicherzustellen, dass die Gruppe in der Stichprobe zuverlässig
    repräsentiert sind daher teilt man die Grundgesamtheit in mehrere Teil-Gesamtheiten auf. Es sind Kenntnisse über die Grundgesamtheit erforderlich.
    Als Schichtungsmerkmale wählt man- ähnlich wie bei der Quoten-Auswahl- solche, die mit dem Untersuchungsgegenstand in Beziehung stehen. Es ist wichtig, dass die Informationen über die Schichten der Grundgesamtheit einen aktuellen Stand aufweisen. Die Schicht muss auch groß genug sein.
     
     
    20) Entwerfen Sie für jede der angeführten Fragestellungen ein geeignetes Forschungsdesign. Begründen Sie Ihre Entscheidung und beschreiben sie grundlegende Aspekte des jeweiligen Designs.
     
    Um neue Arbeitsfelder zu erschließen und aktuelle Arbeitsschwerpunkte hinsichtlich ihres Stellenwertes zu überprüfen, soll die Arbeit einer Familienberatungsstelle untersucht werden.
     
    Survey-Model: Ein Design zur Erhebung und Analyse empirischer Informationen und zur
    Beobachtung eines sozialen Sachverhalts.
    Ziele:
     
    Als Basis für eine Entscheidung benötigt man empirisch gesicherte aktuelle Erkenntnisse über den in der Frage stehenden Gegenstand.
     
    - Bei unvorhergesehen gesellschaftlichen Veränderungen weil man umfassende Information zur Beurteilung und Verständnis dieser Entwicklung gewinnen.
    - Man will einen noch relativ unbekannten empirischen Sachverhalt durch eine möglichst breit angelegte Deskription erkunden.
    - Man will in regelmäßigen Abständen die Informationen über wichtige Teilbereiche der Gesellschaft aktualisieren.
    - Man will in aktuell politischen und /oder gesellschaftlichen Theorien das Meinungsbild in der Bevölkerung erheben.
    In oben angegebenen Fall geht es um aktuelle Erkenntnisse und einem sozialen Sachverhalt.
     
    Die Wirkung verschiedener Lehrmethoden auf die Leseleistung von Schulanfängern soll untersucht werden.
     
    Experiment:
    Wie und in welcher Stärke wir sich X (Ursache) auf die Y(Folge) aus: Sprich hier in unserem Fall: wie die Lehrmethode (X) sich auf die Leseleistung (Y)
    Unter kontrollierten Bedingungen (Untersuchungssituation), die von anderen Einflüssen weitgehend abgeschirmt ist, wird einen Maßnahme (Treatment) durchgeführt. Danach beobachtet man welchen Effekt die Maßnahme auf die Untersuchungsobjekte hatte, bzw. welche Wirkung tritt ein.
    Das Experiment ist in gültiger Weise überprüfbar, weil alle Kinder bei null Wissen anfangen. Anforderung: Das Experiment erfüllt jedoch nicht alle Anforderungen exakt (z.B.: man müsste eine Kontrollgruppe haben) und da keine Kontrollgruppe vorhanden ist, beziehe ich das Feldexperiment ein und bezeichne dies als so genanntes Quasi-Experiment, um die Nachteile auszuräumen.
     
    Die Eignung verschiedener Therapiemethoden für die Behandlung depressiver PatientInnen soll untersucht werden.
     
    Parallelisierte Gruppe:
    Durch Parallelisierung der Versuchsgruppen, soll erreicht werden, dass die Versuchsperson
    sich in einem oder mehreren relevanten Merkmalen genau entsprechen.
    Alles, was mit der abhängigen Variablen (Therapieerfolg, Lernerfolg) korreliert, kann eine
    sinnvolle Parallelisierungsvariable sein.
    Es wird von allen Versuchspersonen die Variable erhoben, nach der untersucht werden soll.
    Dies erfordert allerdings eine Vortest-Sitzung, um das Grundwissen zu haben, von dem man
    ausgehen kann. Für k (=Anzahl) experimentelle Bedingungen benötigt man k parallelisierte
    Gruppen.
     
    Man sucht aus dem Datenmaterial jeweils k Versuchspersonen mit gleichen
    Vortestwerten aus. Diese k Versuchspersonen werden dann per Zufall auf die k
    experimentellen Bedingungen verteilt. Vorteil: man benötigt kleinere Stichprobengrößen;
    Nachteil: Vortest-Sitzungen und lange Versuchspersonen-Anwerbung.
     
    Die Zufriedenheit von KursteilnehmerInnen mit dem Angebot einer Erwachsenenbildungseinrichtung soll überprüft und wenn nötig Kurskorrekturen vorgenommen werden. Dieser Prozess soll wissenschaftlich begleitet werden.
     
    Evaluierungsforschung: Evaluation= Bewertung
    Es soll mit Hilfe empirischer Informationen bewertet werden. Es werden Rand- und
    Rahmenbedingungen in bestimmter Weise verändert und die dadurch beabsichtigten
    hervorgerufenen Effekte kontrolliert.
    Die eigentliche Bewertung der Evaluationsforschung besteht darin, anhand der festgestellten
    Effekte den Erfolg eines Programms, also die Effektivität abzuschätzen. So kann der
    Erfolg unserer Einrichtung überprüft werden.
    Als erfolgreich gilt ein Programm dann, wenn die getroffenen Maßnahmen, die Zielvariable
    in der gewünschten Richtung und Stärke beeinflussen. Es werden aber auch
    nichtbeabsichtigte Effekte zu beobachten sein. Diese können positiv oder negativ sein. Das
    Ausbleiben des Erfolgs eines Programms, soll die Möglichkeit zur Verbesserung gegeben
    sein.
     
    21) Beschreiben Sie die Logik des Prozesses der empirischen Überprüfung einer Forschungsfrage im Sinne des empirisch-analytischen Ansatzes.
     
    Empirismus: zuerst Verifikation dann Falsifikation (Popper)
    Man soll Theorien und Hypothesen nun nicht mehr verifizieren (belegen) sonder sie falsifizieren (widerlegen). Ist eine Theorie sehr häufig der "Bewährungsprobe" eines Falsifikationsversuches unterzogen worden, schlägt POPPER vor, sie als "bewährt" zu bezeichnen.
    In der Logik des empirisch-analytischen Ansatzes, stellt die Theorie- und Hypothesenüberprüfung den eigentlichen Zweck empirischen Forschens dar. Im Vordergrund steht dabei, das Anliegen einer Kausalanalyse von Forschungsfragen. Das Experiment stellt das Design der Wahl bei jeder Form einer Kausalanalyse dar. D.h. bei Fragestellung des Typs: Wie und in welcher Stärke wirkt sich X (als Ursache) auf Y(als Folge) aus? Dabei führt man unter kontrollierten Bedingungen (Untersuchungssituation) die von allen externen Einflüssen weitgehend abgeschirmt ist, eine Maßnahme (Treatment) durch. Danach beobachtet er welchen Effekt die Maßnahme auf seine Untersuchungsobjekte hatte. D.h. welche Wirkungen eintreten.
    Wir in einer Versuchsreihe das Treatment systematisch variiert, während alle anderen Bedingungen konstant bleiben, kann aus dem Zusammenhang von variierenden Treatments und Abhängigkeiten davon variierendem Effekt das Ursache-Wirkungs-Prinzip differenziert ausformuliert werden.
     
    22) Beschreiben Sie grundlegende Unterschiede zwischen einem einfachen Zufallsauswahlverfahren und einem geschichteten Random-Sample.
     
    Siehe Frage 18 nur in anderer Abfolge!
     
    23) Beschreiben Sie Grundzüge des hermeneutischen Wissenschaftsverständnisses und diskutieren Sie dieses Paradigma aus der Sicht der empirisch-analytischen Tradition.
     
    Siehe Frage 18 nur in umgekehrter Reihenfolge
     

    24) Beschreiben Sie grundlegende Unterschiede zwischen einem Quota- und einem geschichteten Random-Sample.

     

     

     


    publikationen
    tipps
    fragenkataloge

    wichtige links
    impressum