Philosophieblog.de ist ein Blog von studierten sowie studierenden Philosophinnen und Philosophen.
Grundsätzlich ist es allen studierten Philosophen erlaubt unter Philosophieblog.de ein eigenes Blog zu eröffnen und Beiträge zu publizieren.

XML-Feeds

Die undifferenzierte Aufklärung

Das ist ein Thema, das mich immer wieder beschäftigt. Grund genug, es hier einmal in Gestalt einer Notiz festzuhalten.

Die Aufklärung ist – entgegen der Meinung der meisten Menschen – keine rein positive Angelegenheit. Sie enthält zwei gegensätzliche Elemente, die aber nicht leicht sichtbar werden, weil wir nicht bereit sind, zwischen der Vernunft und dem menschlichen Gebrauch der Vernunft zu differenzieren.

Das positive Element der Aufklärung ist das Sapere aude! -, das „Habe Mut, dich deines eigenen Verstandes zu bedienen!“. Diesem Leitspruch von Kant möchte ich gern folgen. In ihm drückt sich die Befreiung des Menschen durch die Vernunft aus.

Das negative Element ist die Unterdrückung des Menschen durch die Vernunft. Die Vernunft kann nämlich auch unterdrücken. Und das kommt so: Wenn die Vernunft mich befreien kann, weil ich vernünftig denken kann und dadurch imstande bin, mich selbst in meinem Handeln zu leiten, so kann sie mich auf der anderen Seite auch unterdrücken, weil ich der Vernunft folgen muss, sobald ich ein vernünftiges Argument einmal eingesehen habe.

Merkwürdigerweise scheint Kant diese innere Widersprüchlichkeit des Konzepts der Aufklärung nicht gesehen zu haben. Seine Blindheit für dieses Faktum fand ihren hervorragendsten Ausdruck in der Formulierung des kategorischen Imperativs: „Handle so, daß die Maxime deines Willens jederzeit zugleich als Prinzip einer allgemeinen Gesetzgebung gelten könne“. Kant scheint sich nicht überlegt zu haben, was mit dem kategorischen Imperativ passieren würde, wenn er im sozialen Zusammenhang gesellschaftlichen Handelns Anwendung fände.

Ich würde erwarten, dass Folgendes passiert: Zuerst einmal würde man feststellen, dass ein gewöhnlicher Mensch ja gar nicht dazu qualifiziert und ausgebildet ist zu wissen, was als Prinzip einer allgemeinen Gesetzgebung dienen könnte. Sodann würde man vielleicht spezielle Studien einrichten, durch welche die Absolventen derselben das Zertifikat erhielten, zu Handlungen nach dem kategorischen Imperativ berechtigt zu sein. Diese würden in der Folge anderen Menschen als beratender Beruf zur Verfügung stehen und ihnen auf Anfrage schriftlich und mit Stempel bestätigen, dass eine bestimmte von ihnen intendierte Handlung im Einklang mit dem kategorischen Imperativ steht. Ohne vorherige Konsultation dieser Spezialisten dürfte man nicht mehr handeln.

Und/oder es würden Kommissionen gegründet, die entscheiden, welche Handlungsoption in bestimmten Fragen und bei Handlungen in bestimmten Situationen im Einklang mit dem allgemeinen Gesetz steht. (Wenn ich z.B. an die neue Kennzeichnungspflicht für Allergene auf Speisekarten denke, so habe ich ohnehin den Eindruck, als würde das Rezept der Handlungsteuerung von oben, also per Gesetz, heute zunehmend stärker verfolgt.) Aber eines würde ganz bestimmt nicht geschehen: Man würde den Einzelmenschen nicht alleine entscheiden lassen. Wenn etwas so Wichtiges wie die allgemeine Gesetzgebung auf dem Spiel stünde, würde man nie und nimmer den Einzelnen so handeln lassen, dass die Maxime seines Handelns zum Prinzip einer allgemeinen Gesetzgebung werden könnte, sondern man würde ihm – aus Angst, er könnte eine bestimmte Handlungsweise durchsetzen, die man nicht haben will – sein Handeln wegnehmen, ihm seine Handlungsfähigkeit absprechen und ihm anstatt dessen vorschreiben, was zu tun sei.

Dass Kant das nicht gesehen haben könnte, ist etwas, das mich zutiefst verwundert: dass man nicht von jemanden verlangen kann, dass er autonom (selbstständig) und zugleich vernünftig handle. Denn sobald man verlangt, dass sein Handeln auch vernünftig sei, werden sich Andere einschalten, um danach zu fragen, ob dieses Handeln denn auch wirklich vernünftig sei und binnen kürzester Zeit wird er nicht mehr autonom sein. Weil sich nämlich die Beurteiler der Vernünftigkeit der Handlung einmischen und dem Handelnden ihre Vorstellungen von Vernunft aufdrängen. (Natürlich habe ich auch schon etwas zu diesem Thema geschrieben: MoralkEulen in die Ethik tragen. Studien über den Hang der Ethik zur Moral, S. 158ff.)

Was man daraus lernen könnte, ist: Vernunft und Vernünftig-Handeln-Wollen gehen nicht zusammen. Die Aufklärung setzt das aber ineins:

  • Wenn der Einzelmensch nachdenkt, bedient er sich seiner Vernunft;
  • und mit seiner Vernunft hat er zugleich Anteil an der Vernunft an sich, der Domäne für allgemeine Vernunftwahrheiten.

Diese Weigerung, zwischen der Vernunft und der menschlichen Vernünftigkeit zu unterscheiden – oder auch die Unfähigkeit, den Unterschied zwischen diesen beiden zu sehen, nenne ich die „undifferenzierte Aufklärung“.

Und diese undifferenzierte Aufklärung hat zu bekannten Problemen geführt, die allgemein als solche der „Moderne“ apostrophiert werden. Diese Probleme unterteilen sich, mit Anklang an einen Buchtitel von Elias Canetti, in solche der Masse und solche der Macht.

Fangen wir mit der Macht an. Ich habe bereits gezeigt, dass wir, wenn wir Anhänger der Idee der Vernunft sind, wenig Neigung haben werden, dem ungebildeten, schmutzigen Menschen, der keiner regelmäßigen Arbeit nachgeht, irgendwas entscheiden zu lassen. Die vernünftigen Entscheidungen sind sicherlich besser aufgehoben bei den gebildeten Menschen beziehungsweise in Institutionen, die Wissensressourcen als Grundlagen für Handlungsentscheidungen (Schulen, Universitäten, Ministerien) anhäufen. Der Ruf nach der Vernunft führt also paradoxerweise nicht zu einer Stärkung der Individuen als Handelnde, sondern zu ihrer Schwächung und Entmündigung.

Aber das ist noch nicht alles. Die Vision von vielen mehr oder weniger vernünftigen Menschen, die unkoordiniert handeln, führt zur Befürchtung von Chaos und Stagnation und in der Folge zum Ruf nach „dem starken Mann“. Diese Tendenz ist von der Struktur der Idee der Vernunft her verständlich: Da sie nur eine ist, sollte auch nur Einer regieren. Es kann ja auch nur Einer Recht haben; und wenn das so ist, werden ihn die Anderen mit ihren abweichenden Meinungen nur behindern.

Es mag für diejenigen, die diesen Umstand noch nie bedacht haben, übertrieben klingen, aber letztlich ist der Glaube an die Vernunft auch mit schuld am Aufstieg des Nationalsozialismus und am Zweiten Weltkrieg, denn hier wollte man einem Menschen so viel Macht geben, dass er durchsetzen konnte, was nottat. Freilich tat er dann auch sonst noch allerhand, was nicht vernünftig war; aber davon konnte man ihn dann schon nicht mehr zurückhalten, nachdem man ihm einmal die Macht überlassen hatte. Diese Bemerkung scheint mir notwendig zu sein, weil der Nationalsozialismus und der Zweite Weltkrieg allgemein als Ausdruck der Unvernunft angesehen werden, gewissermaßen als hätten sie nicht geschehen können, wenn die Menschen damals vernünftiger gehandelt hätten. Dass auch die Idee der Vernunft in den Weltkrieg geführt hat, wird gern übersehen. (Umgekehrt kann man die Rückkehr von den Diktaturen des 20. Jahrhunderts zur parlamentarischen Demokratie in mehreren Staaten auch als ein gewisses Abrücken von der Idee der Vernunft sehen, denn hier erlaubt man es mehreren Parteien, in Parlament und Öffentlichkeit ihre Ideologien zu verbreiten, die nicht (alle) vernünftig sein können – allein schon deshalb, weil es mehrere sind.)

Während sich die Vernunft zur Macht gesellt, weil sie die stärkere ist, bleibt auf der anderen Seite der Einzelmensch übrig und wird zum atomisierten, beziehungslosen und ohnmächtigen Menschen in der Massengesellschaft. Die Ohnmacht des Einzelnen rührt nicht zuletzt daher, dass die Vernunft so hohe Anforderungen an ihn stellt, dass er ihnen nicht genügen kann. Diese Thematik ist in die politische und in die Sozialphilosophie eingegangen als das Drama des modernen Subjekts. Dieses Drama lässt sich so zusammenfassen, indem man sagt: Man hielt die Vernunft für ein so starkes Instrument zur Konstitution der eigenen Identität, dass man meinte, der Mensch könne auch klar denken, wenn er hungert und friert und sich um seine kranken Kinder sorgt. Das kann er natürlich nicht, aber der Begriff des Menschen als eines vernünftigen Tiers (animal rationale) scheint nahezulegen, dass alles, was der Mensch denkt und tut, auf jeden Fall immer vernünftig sein müsse, gleich wie es ihm sonst noch geht. In der Folge erwartete man vom einzelnen Menschen, dass er sich kraft seiner Vernunft selbst erschafft und sich eine eigene Identität zuschreibt, was er natürlich außerdem auch noch ganz alleine tun soll, denn die Vernunft ist ja nur eine und braucht daher keinen zweiten Menschen zur Beratschlagung.

Der Glaube an die Vernunft führt also auf der einen Seite zu einer (manchmal aber nicht immer wohlwollenden) Diktatur von oben und auf der anderen Seite zu atomisierten, ohnmächtigen Einzelmenschen in der Anonymität der Massengesellschaft.

Aus dem Grund glaube ich, man muss vor dem Glauben an die Vernunft warnen, selbst wenn man sich dadurch der Gefahr aussetzt, als Irrationalist, also als Anhänger des Unvernünftigen zu gelten.

Den Grund, warum man der Vernunft trotzdem distanziert gegenüberstehen sollte, noch einmal kurz zusammengefasst: Ich bin gut und gern bereit zu glauben, dass es auf der Welt vernünftig zugehen würde, wenn uns die Vernunft in Person begegnen würde. Aber angeleitet von unserem Glauben an die Vernunft begegnen wir ja nicht der Vernunft selbst, sondern unserer (gegenwärtigen) Vorstellung von der Vernunft. Und diese ist genauso beschränkt – um nicht zu sagen: blöd – wie wir selber. Daher kommt es, dass wir die Unvernunft finden, wenn wir die Vernunft suchen.

Und das einzige Gegenmittel, das es dagegen gibt, ist, zwar zu versuchen, vernünftig zu handeln (denn eine andere Möglichkeit haben wir nicht), aber vorsichtig dabei zu sein. Denn wer vernünftig im Sinne der „undifferenzierten Aufklärung“ handelt, ist wie jemand, der auf dem weißen Papier Pläne zeichnet, die in sich zwar schlüssig sein mögen, die aber zugleich viele Umstände der äußeren Realität, in der sie dann verwirklicht werden sollen, außer Acht lassen.

Meine Ausführungen haben nun nicht den Zweck, selbst einmal mit großen Begriffen wie „Moderne“ und „Postmoderne“ zu werfen; vielmehr bin ich eigentlich eher irritiert, wenn Philosophen und Kulturwissenschaftler das tun, weil ich ja eigentlich denke: Wir stehen heute immer noch ganz am Anfang der Aufklärung. Wir haben versucht, die Ideale der Aufklärung zu verwirklichen, aber es ist uns schlimm misslungen. Und eigentlich wäre es jetzt an der Zeit, es noch einmal neu zu versuchen. Wir sollten also nicht über „Moderne“ und „Postmoderne“ diskutieren, sondern dort weitermachen, wo wir stehengeblieben waren.

Meine Ausführungen haben nur den Zweck, um darauf hinzuweisen, dass jene Probleme, die aus der „undifferenzierten Aufklärung“ resultieren, in der Kulturtheorie schon an prominenter Stelle diskutiert worden sind. Wenn man Autoren wie Elias Canetti, Horkheimer/Adorno, Zygmunt Bauman oder Michel Foucault (neben vielen anderen) liest, begegnen einem immer wieder die gleichen Probleme, die oft als solche der Moderne beschrieben wurden: Hier die Macht, die immer mehr Wissen ansammelt und sich immer besser organisiert, dort die Einzelmenschen, die immer ohnmächtiger werden und als Masse verwaltet werden. Mich wundert, warum man bisher noch nicht gesehen hat, dass die Aufklärung in ihrer undifferenzierten Gestalt das Drehbuch zu diesem Drama geschrieben hat!

Denn sobald man meint, der Mensch sei vernünftig und die menschliche Gesellschaft solle vernünftig regiert werden, wird immer sogleich dieselbe soziale Dynamik entstehen: Es wird einem auffallen, dass manche Menschen vernünftiger sind als andere und man wird daraus folgern, dass die vernünftigeren regieren sollen. Am Ende werden die Vernünftigsten regieren (aber so, wie es ihnen selbst am besten erscheint; nicht notwendig so, dass auch die Bedürfnisse der Übrigen erfüllt werden) und der Großteil der Menschen wird weitgehend entmündigt sein.

Kurz: Ich wundere mich, dass man bisher nicht gesehen hat, dass die Aufklärung die Probleme aufgelegt (im Sinne von: verursacht) hat, in denen wir bis heute stecken.

Die Moral von der Geschichte, die ich hier erzähle, ist natürlich, dass wir lernen sollten, mit dem Vernunftbegriff anders umzugehen als bisher. Denn das Anliegen der Aufklärung, wonach nicht religiöser Glaube und blinder Respekt vor Autorität, sondern die Vernunft herrschen sollte, hat dazu geführt, dass blinder Glaube und Respekt vor der Autorität von Experten herrscht, aber erst recht wieder nicht die Vernunft. Die Schwierigkeit liegt nun darin, dass die Menschen bis heute gewohnt sind, dem zu glauben, was Worte ihrem Wortlaut nach unmittelbar zu sagen scheinen und wahrscheinlich nicht in der Lage sind, Begriffen distanziert gegenüberzutreten und beispielsweise zu fragen: „Du redest von der Vernunft; aber welche meinst du – die gute oder die schlechte? Die gute, die mich befreit und mir Mittel in die Hand gibt, um selbst mein eigenes Leben zu gestalten, oder die schlechte, die mir meine Freiheit wegnimmt und mich unter dem Vorwand, ein Anderer wisse besser als ich, was gut für mich ist, psychisch zum Entwicklungsstadium eines Kleinkinds regredieren lässt?“

Das Problem liegt darin, dass nach wie vor das Wort „Vernunft“ in aller Unschuld und Naivität daherkommt und scheinbar nur „dasjenige, was vernünftig ist“ bedeutet. Diese Wortbedeutung aber ist eine Falle, und wir müssten vor ihr zurückschrecken und uns fragen: Was kann denn „Vernunft“ bestenfalls bedeuten? Nun, bestenfalls kann „Vernunft“ bedeuten, dass sich jemand darum bemüht, eine vernünftige Entscheidung zu treffen und dass sie ihm, nach allem was er weiß und berücksichtigen konnte, auch vernünftig erscheint, was aber noch nicht bedeuten muss, dass sie tatsächlich vernünftig ist. Somit ergeben sich für die „Vernunft“ zwei Wortbedeutungen, die man auseinanderhalten muss: Da ist einmal die Vernunft oder vernünftige Entscheidung selbst, die uns als Ideal vorschwebt, die wir aber nie erreichen können und von der wir deshalb eigentlich auch nichts wissen. Und dann ist da unsere Bemühung um ein vernünftiges Handeln, die wir schon in der Hand haben, aber von der wir als beschränkte Wesen letzten Endes nicht mit Sicherheit sagen, ob sie wirklich vernünftig ist – d.h. ob unser Handeln das Ideal der Vernünftigkeit erreicht.

Ohne diese Differenzierung zwischen Vernunft und Vernunft wird für den einzelnen Menschen kein „Sapere aude! Habe Mut, dich deines eigenen Verstandes zu bedienen!“ – möglich sein, und die menschliche Gesellschaft wird ohne sie immer wieder in Situation der Moderne mit ihrer Problemstellung von Maße und Macht zurückfallen. Aber so logisch sie klingt, wenn man die Sache durchdenkt, so wird es trotzdem nicht leicht sein, diese begriffliche Unterscheidung den Menschen schmackhaft zu machen, denn letzten Endes bedeutet sie ja, dass unser vernünftiges Handeln nicht vernünftig ist, weil Vernunft für uns Menschen ein unerreichbares Ideal ist. Da werden sich viele Leute in ihrem Stolz und Selbstbild auf den Schlips getreten fühlen.

Interessanter als das ist jedoch die Frage: Wie stellt man sich eine Vernunft vor, die nicht vernünftig ist, sondern bloß ein Bemühen um Vernunft ist. Ich weiß von meiner Beschäftigung mit dem Gettier Problem, dass die analytischen Philosophen es nicht hinkriegen, sich ein Wissen vorzustellen, bei dem man nicht mit Sicherheit weiß. Diese Begriffe, die nicht ganz für voll genommen werden können – wie Vernunft und Wissen – bereiten offenbar unserem Verständnis große Probleme. An ihnen scheitern auch die schlauesten Philosophen. (Aber es gibt unter den Philosophen ja auch bis heute noch enthusiastische Anhänger der Ethik Kants, solche, bei denen die kantische Moralphilosophie offenbar einen ganz tiefliegenden Nerv getroffen hat, sodass sie gleichsam beseelt sind vom kategorischen Imperativ.)

Ich jedenfalls habe mein Sprüchlein aufgesagt: Wir können entweder weiterhin dem Glauben an die Vernunft nachhängen und damit eine „undifferenzierte Aufklärung“ praktizieren, dann wird die „Vernunft“ im gesellschaftlichen Raum dem Expertenwissen und den technokratischem Handeln zugeschrieben werden. Oder wir raffen uns doch noch einmal auf und entscheiden uns dazu, mit dem eigentlichen Projekt der Aufklärung, also dem Sapere aude! – und dem Selbstdenken aller Einzelmenschen, Ernst zu machen, aber dann werden wir nicht darum herumkommen, den Menschen als „nicht ganz vernünftiges Wesen“ zu definieren. Und mehr noch: den Menschen nicht nur so zu definieren, sondern ihn gemäß dieser Definition auch so zu sehen und uns selbst so zu sehen. Aber das würde uns meiner Einschätzung nach einige Probleme bereiten. Dann würden uns gewiss einige Elemente unserer bisherigen Geisteswelt durcheinanderkommen: Ich weiß zum Beispiel nicht, was wir dann mit dem Wort „Irrationalismus“ machen.

"Philosophie" ist ein pervertiertes Wort

Neulich traf ich unseren Techniker Fritz morgens in der U-Bahn. Ich treffe ihn dort bisweilen, weil wir ein Stück weit denselben Weg zur Arbeit haben. Wenn wir uns in der U-Bahn treffen, machen wir ein wenig Konversation und plaudern dabei gewöhnlich über wirtschaftliche und politische Probleme.
Dieses Mal wunderte sich Fritz, wozu die Leute Facebook brauchen. Aufgrund seiner Ingenieurspersönlichkeit hat Fritz oft eine etwas andere Perspektive auf die Dinge. Zu posten, welche Speisen man gerade gegessen hat, hält er für uninteressant, und sobald es sich um irgendein spezielleres Interesse handelt, über das man sich austauschen will, sei man doch in einem spezialisierten Internetforum besser aufgehoben. Es gebe ohnehin Foren für alles Mögliche, z.B. für Fotografie.
Ich entgegnete Fritz, ich wüsste auch nicht, wofür andere Leute Facebook gebrauchen. Aber ich könne ihm sagen, wofür ich es brauche. Nämlich um z.B. einen Link zu posten, wenn ich wieder einmal einen Post für meinen Blog auf philosophieblog.de geschrieben habe.
Ja, aber für Philosophie gibt es doch auch spezialisierte Foren. Ob ich dort nicht besser aufgehoben wäre, um mich mit Gleichgesinnten auszutauschen?
Leider nein, sagte ich, denn Philosophie sei ein pervertiertes Wort. Also ein Wort, bei dem auf seinem Weg durch die Geschichte schleichend seine Wortbedeutung abhandengekommen sei. So glaube ich ja z.B. auch nicht, dass an den Philosophieinstituten in den Universitäten Philosophie unterrichtet werde. Was mich in eine grelle Dissonanz zur sozialen Wirklichkeit setzt, denn: Alle Leute sind der Meinung, an den universitären Philosophieinstituten werde Philosophie praktiziert, aber ich war selbst dort, ich habe ja Philosophie studiert, und es wäre mir nicht aufgefallen, dass es dort Philosophie gäbe.
Die Angelegenheit sei eigentlich noch dramatischer, setzte ich noch eins drauf, denn bei allen Menschen, an die ich mich mit einem philosophischen Anliegen wende, seien die mehr oder weniger professionellen oder spezialisierten Philosophen diejenigen, von denen mir am meisten Abwehr entgegenschlage. Denn auf wen treffe ich, wenn ich auf einen spezialisierten Philosophen oder auf eine spezialisierte Philosophin treffe? Zumeist auf einen Besserwisser, der seine Position durch Wissen über spezielle Entwicklungen in seiner Subdisziplin innerhalb der akademischen Philosophie rechtfertigt und dadurch dem freien Austausch von Argumenten ein Ende setzt. Es erscheine mir völlig sinnlos, mit meinen philosophischen Interessen Verständnis bei Philosophen zu finden, denn diese seien mit vernünftigen Argumenten nicht erreichbar, sagte ich.
Da sei es schon besser, mein neues Posting über Facebook meinen in etwa 250 Freunden bekannt zu machen, denn darunter befinde sich zumindest eine Handvoll Menschen, die sich mit dem, was ich unter Philosophie verstehe, angefreundet hat und die den Text vielleicht lesen werden. Diese Menschen hätten zumindest grundsätzlich die Möglichkeit, meinen Blogtext verstehen zu können, weil sie keinen Hintergrund in Philosophie haben. Als philosophisch unbedarfte Menschen seien sie offen für das, was man ihnen gegenüber vorbringt, und wüssten nicht von Vornherein alles besser, sodass man ihnen nichts mehr erzählen kann.
Ja, das verstünde er, sagte Fritz, und damit sei ich der Erste, der ihm ein akzeptables Argument vorgebracht hätte, wofür Facebook vielleicht doch tauglich wäre. Bei mir wirkte unser Gespräch noch nach, und mir fiel ein, dass ich ja schon öfters in meinem Leben über die Einteilung der Welt in Fächer und Schubladen nachgedacht hatte, wobei mir dabei immer wieder aufgefallen war, wie problematisch solche Einteilungen sind, weil es innerhalb eines Fachs immer die soziale Gruppe, die sich durchsetzt, ist, die bestimmt, wie das Fach definiert wird und sich selbst sehen soll. Wer immer mit der Meinung der herrschenden Gruppe über das Fach nicht übereinstimmt, dem bleibt eigentlich nur die Möglichkeit, auf dem „freien Markt“ oder jedenfalls außerhalb des Fachs nach Gesprächspartnern zu suchen. Fritz war die Einteilung der Welt in Fächer und Schubladen offenbar bislang noch als eine unproblematische Angelegenheit erschienen, die einfach zweckmäßig war. So würde man ja auch von vornherein erwarten, dass Fotografieinteressierte Gleichgesinnte in einem Fotografie finden und Computersystemadministrationsinteressierte in einem Forum für Systemadministration. Nur: So ist es bei Philosophie eben gerade nicht. Aber darüber sprachen wir dann nicht mehr, denn wir waren schon bei unseren Büros angekommen.
Als Philosophieinteressierter muss man sich eingestehen, dass andere Philosophen diejenigen Menschen sind, die am philosophiedesinteressiertesten von allen Adressaten sind, an die man sich wenden kann. Bitte, wieso das so ist, darüber könnten wir nun mutmaßen und ich hätte da schon auch meine Ideen zu dem Thema. Aber Fakt ist, dass jene Menschen, die der Meinung sind, alle Menschen müssten sich ganz leicht und konfliktlos unter Themenstichworten und Überschriften versammeln können, Druck auf uns Philosophieinteressierte ausüben. Druck in der Richtung, dass „Philosophie“ doch auch so unproblematisch und verständlich sein müsste wie „Fotografie“. Ja, und vielleicht verfallen wir sogar bisweilen selbst in den Glauben, da seien doch noch andere Menschen, die von sich selbst sagen, sie seien philosophiebegeistert, und diese Menschen müssten doch eine teilweise überlappende oder zumindest kompatible geistige Interessenlage mitbringen wie wir selber.
Aber eigene Erfahrung lehrt, dass das nicht der Fall ist: Ein Argument, das der Eine als im Mainstream der philosophischen Tradition befindlich einschätzt, hält der Andere für so inakzeptabel, dass es in einem respektablen philosophischen Diskurs nicht einmal geäußert werden kann, ohne blöd und peinlich zu wirken. Was für den einen Philosophen eine lohnende philosophische Aufgabe ist, hat für den anderen mit Philosophie überhaupt nichts zu tun und ist bloß hohles Geschwätz. So weit sind wir nämlich in Wirklichkeit voneinander entfernt.
Freilich, die Menschen fahren fort, daran zu glauben, dass man wissen könne, was Philosophie sei. Dass es so etwas wie eine Wortbedeutung von „Philosophie“ gebe. Und wenn sie sie schon selbst nicht wüssten, weil sie ja Laien sind, so würden sie zumindest erwarten, dass philosophische Fachleute befriedigend darüber Auskunft geben könnten, was denn das sei, „Philosophie“.
Aber das ist nicht der Fall. Es gibt viele Philosophiekonzepte und kein gemeinsames. Weder allgemein noch unter Fachleuten ist es ausgemacht, was Philosophie ist. Deshalb wird man die Tatsache akzeptieren müssen, dass „Philosophie“ ein unverständliches Wort ist. Und einen jeden Menschen, der behauptet, dass er Philosophie mache, muss man zuerst fragen, was Philosophie für ihn sei, was er denn eigentlich genau damit meint.
Und der Grund dafür ist, dass „Philosophie“ ein pervertiertes Wort ist. Das bedeutet, dass es irgendwann im Laufe der Geschichte mal einen Anfang gab, zumeist wird dieser in Griechenland lokalisiert, wo einige Menschen die Aufgabe und das Ziel der Philosophie bestimmt haben. Dann kam die nächste Generation und fand diese Aufgabe unattraktiv und das Ziel nicht lohnenswert und bestimmte die Philosophie neu. Und dann kam die dritte Generation und macht dasselbe mit er zweiten. Eine lange Zeit hindurch war die Philosophie die Magd der Theologie, weil der Glaube den Rahmen des gültigen Weltbilds bestimmte und man es für eitel und sinnlos hielt, sich um ein Weltbild außerhalb des Glaubens und unabhängig von ihm zu bemühen. Heute ist die Philosophie die Magd der Wissenschaft, weil unser Zeitalter ein wissenschaftsdominiertes ist. Zwar interessiert die Wissenschaft kaum jemanden, aber unser Wirtschaftssystem basiert auf Patenten und intellektuellem Eigentum, sodass wir alle zur Wissenschaft verdammt sind. Und auch die Philosophie ist heute dazu verdammt, eine wissenschaftliche zu sein oder als wissenschaftlich zumindest zu erscheinen.
Jedes neue Zeitalter, jede Geistesmode färbt die Philosophie völlig durch, und die Philosophie hat zu wenig Eigencharakter, um dem irgendetwas entgegensetzen zu können. Das ist der Grund, warum „Philosophie“ auch in jedem Zeitalter bisher immer ein mehr oder weniger pervertiertes Wort gewesen ist. Mir fiele auch gar nichts ein, was man dagegen unternehmen könnte. Außer vielleicht dieses: Den Leuten klar machen, dass „Philosophie“ kein Wort ist wie Fotografie oder Systemadministration, Biologie, Mathematik oder Logistik. Dass es ein unverständliches Wort ist oder zumindest eines, das nicht ohne weiteres, also ohne weitere Erläuterung verständlich ist. Und natürlich auch, dass Philosophen nichts mit anderen Philosophen gemein haben.
An der Stelle drängt sich der Einwand auf, warum ich bei diesem Wort bleiben will? Wenn es so unverständlich ist und nicht dazu taugt, dass Gleichgesinnte sich unter ihm zusammenfinden, warum sollte ich es nicht über Bord werfen und meine Interessen unter einem anderen Begriff verfolgen? – Nun, sofort würde ich das machen, wenn mir ein solches Wort einfiele, das besser oder zumindest gleich gut zum Ausdruck bringt, was ich unter Philosophie tun will. Aber ich weiß leider kein solches Wort. „Philosophie“ bringt immer noch am besten jenes Projekt des eigenständigen Denkens zum Ausdruck, in welchem ein Mensch den obersten Probierstein der Wahrheit in sich selbst findet (Kant), auch wenn man immer dazusagen muss: Das hätte Philosophie der Idee nach vielleicht einmal sein sollen; aber in der Realität finden Sie das heute nirgendwo.
Und daher verwende ich weiterhin dieses pervertierte Wort, um damit eine Tätigkeit zu bezeichnen, die aus Sicht der menschlichen Sozialität ja im Grunde auch pervers ist: Selberdenken kann doch im Sinne keiner Gemeinschaft oder Gesellschaft sein! Es käme jeder zu einer eigenen Meinung – worum könnte man sich dann noch versammeln?

Permalink 15.02.15    7 Kommentare »

Wie man ethisch auf das Trolleyproblem reagiert

Link: https://tredition.de/publish-books/?books/ID39239/MoralkEulen-in-die-Ethik-tragen

Bisweilen überrascht es mich, wie viel ich durch das Schreiben meines Buchs MoralkEulen in die Ethik tragen. Studien über den Hang der Ethik zur Moral. (tredition 2014) gelernt habe.

Zum Beispiel: dass das ethisch Gute nicht einfach so dem moralisch Guten entspricht.

Dass mit der heutigen Ethik etwas nicht stimmen kann, weil die Rolle der Normen in ihr falsch aufgefasst wird, das wusste ich schon seit meiner Diplomarbeit über die Ethik des spanischen Philosophen Fernando Savater (Ethik anhand von Fernando Savater. Wien, 1997).

Aber ein solches Wissen bricht ja nicht die unmittelbare Reaktion auf die Aussagen Anderer. Der Mensch ist konditioniert auf den gegenwärtigen Gebrauch eines Wortes. Diese Konditionierung zu überwinden, hilft das eigene Nachdenken nicht gleich und unmittelbar. Da muss man die Sache oft durchdenken und sie immer wieder von verschiedenen Seiten anschauen.

Zum Beispiel: Was meint denn jemand damit, wenn er sagt, aus ethischer Perspektive habe er Probleme mit einer Sache?

Da muss man nicht viel erklären: Bei irgendwelchen Umständen, Sachverhalten, Prozessen, Handlungsabläufen sorgt sich der Sprecher, dass hier vielleicht technisch, sachlich, ökonomisch richtig, aber nicht moralisch richtig gehandelt werde.

Damit will ich sagen: Es ist uns schon zu einem Reflex geworden, es ist schon zur Wortbedeutung von „ethisch“ im sozialen Gebrauch dieses Wortes geworden, damit das moralisch Richtige zu meinen.

Es ist von diesem Punkt ein langer Weg, um auf den Gedanken zu kommen, dass eine ethisch richtige Handlung auch moralisch falsch sein kann.

Zum Beispiel: Es gibt im Utilitarismus das Gedankenexperiment des Trolleyproblems. Ich erzähle kurz eine von vielen Versionen dieses Gedankenspiels: Ein Spurwagen (Trolley) schießt ungebremst die Schienen hinunter. Auf dem Gleis, das der Spurwagen nehmen wird, sind drei Personen an den Schienen festgebunden. Sie haben die Möglichkeit durch Betätigung eines Schalters eine Weiche umzustellen. Damit würden Sie den Spurwagen auf ein anderes Gleis umlenken, auf dem aber auch ein Mensch auf den Schienen festgebunden ist. Was tun Sie? Legen Sie den Schalter um oder tun Sie nichts?

Wie könnte man ethisch auf dieses Beispiel reagieren?

Die Antwort des Utilitarismus ist einfach: Sie legen den Schalter um, denn es stiftet mehr Nutzen, nur einen Menschen umzubringen als drei.

Aber ist das eine ethische Reaktion auf dieses Beispiel?

Was geschieht in diesem Gedankenexperiment überhaupt?

- Das Problem der Ethik wird in moralischen Dilemmasituationen gesehen, und die Aufgabe der Ethik wird so bestimmt, dass sie für solche Situationen Lösungen anbieten soll.

Aber ist das die Aufgabe der Ethik? Ist das der ethische Gesichtspunkt?

Wie wäre es anstatt dessen damit: Wenn wir davon ausgehen, dass es in der Ethik um die Frage „Was soll ich tun?“ und zwar vor dem Hintergrund der Frage danach, worin das gute menschliche Leben besteht (siehe Aristoteles: Nikomachische Ethik) geht, dann wäre die erste Frage eigentlich die: Wie kann ich aktiv, wie kann ich handlungsfähig werden?

- Nun, handlungsfähig kann ich in dieser Situation werden, indem ich das Trolleybeispiel zurückweise und sage: „Ich will das nicht beantworten!“ Denn indem mir ein Professor im Ethikunterricht das Trolleybeispiel zum Lösen gibt, komme ich in eine reaktive Lage. Ich agiere nicht mehr, sondern reagiere nur mehr. Wie soll ich in dieser Situation handeln und gar noch das gute Leben suchen? Das geht nicht. Damit ich handeln kann, muss ich meine eigenen Projekte verfolgen, denn sonst bin es ja nicht ich, der handelt.

Damit will ich sagen: Im Grunde ist es ethisch falsch, das Trolleybeispiel zu lösen. Vielleicht ist die eine oder andere Lösung des Trolleybeispiels moralisch richtig oder moralisch gefordert. Aber in der Ethik geht es ja nicht um das moralisch Richtige, sondern es geht darum, dass der Mensch aktiv wird und beherzt handelt. Das kann er hier aber nicht, weil das Trolleybeispiel ihn vom Handeln abhält. Der Mensch will handeln, doch der Professor sagt zu ihm: „Jetzt hörst du auf mit dem, was du gerade tust, und beschäftigst dich mit dem Problem, das ich dir hier gebe!“

Durch das Trolleybeispiel wird der Mensch passiviert. Aus dem aktiven Menschen wird ein reaktiver Mensch gemacht. Und schließlich: Das Trolleybeispiel suggeriert, dass das Ethische gerade darin bestünde, in eine derartig blöde Situation zu kommen, in der man nicht aktiv handeln, sondern nur passiv reagieren kann. Aus dem Grund ist das Trolleybeispiel selbst unethisch.

Wenn das jetzt erstens zwar, so kommt nun zweitens: Der aufmerksame Leser/die aufmerksame Leserin hat sicherlich bemerkt, dass ich das Trolleybeispiel unter der Hand leicht verändert habe: Aus dem Spurwagen, der die Schienen runterrast, ist in meiner Version der Professor geworden, der mir das Beispiel vom Spurwagen, der runterrast, gibt, um es im Ethikunterricht als praktische Übung für mein Ethikverständnis zu lösen. Diese Veränderung des Beispiels hat schon ihre Berechtigung, denn meistens wird das Spiel ja wirklich so gespielt: Mit Trolleys, die man umleiten soll, hat man den ersten Kontakt, wenn der Professor (oder die Professorin) einen im Unterricht damit konfrontiert.

Und diese subtile Veränderung des Beispiels ist auch wichtig, denn ich denke, ethisch ist es, nicht gleich ein jedes Problem reflexartig lösen zu wollen, sondern zuerst einmal danach zu fragen, wer, zum Kuckuck, einen denn in diese verflixte Lage gebracht hat!

Dennoch könnten Sie mich fragen: Und – wenn wir jetzt den Philosophieprofessor wegließen? - Wie soll man denn dann im Trolleybeispiel ethisch reagieren, oder wie ist das Trolleybeispiel aus ethischer Sicht zu sehen?

- Nun, dann würde ich Folgendes sagen: Das Trolleybeispiel beschreibt eine Situation, einen Lebensbereich, in dem man kaum ethisch handeln kann. Egal für welche Handlungsoption man sich entscheidet, man wird nie wirklich wissen, ob es richtig gewesen ist. Man auf jeden Fall für den Tod mindestens eines Menschen verantwortlich sein und in Zukunft deswegen mit Gewissensnöten leben müssen. Das ist nicht schön, das kann kein Handlungsziel sein. Vielleicht ist die eine Handlungsoption ein wenig weniger schlecht als die andere, aber man kann hier nichts Gutes machen.

Daraus folgt: Um etwas Gutes machen zu können, muss man zuerst raus aus dieser Situation und sich in einen Lebensbereich begeben, in dem man mehr Gestaltungsfreiheit hat. Man wird sich in der Situation, die einem das Trolleybeispiel aufgibt, des Handelns nicht entziehen können, aber es ist ein Irrtum zu glauben, dass es gerade in ihr ist, wo man ethisch handelt. Erst nachher, sobald man wieder in einer Lage ist, in der man seine Ruhe hat und sein weiteres Leben planen kann, wird man wieder als ethische Person aktiv werden können.

Das will heißen: In moralischen Dilemmatasituationen findet kein ethisches Handeln statt. Ethisches Handeln findet statt, wenn der Mensch in keinem moralischen Dilemma steckt. Denn nur dann hat er ja überhaupt die Möglichkeit sich auszudenken, wie er handeln will. Ob er was Gutes, was Böses, was Schönes oder was Dämliches tun will. In einer moralischen Dilemmasituation ist er in seinen Handlungsmöglichkeiten so reduziert, dass ethische Reflexion gar nicht erst anläuft.

Sehen Sie! Und das hätte ich vor meinem MoralkEulen-Buch zwar schon auch irgendwie gewusst. Aber ich hätte es nicht so sagen können.

Und warum nicht? Nun, weil es die Leute schockiert, wenn sie vor dem Gedanken stehen, dass es ethisch sein könnte, wenn jemand etwas moralisch Böses tut. Und weil ich natürlich weiß, dass sie das schockiert und dass sie die Angelegenheit noch nie ordentlich durchgedacht haben.

Und dennoch ist es so: Denn zuerst kommt die ethische Überlegung, und ob sich deren Resultat am Ende auch als moralisch erweist, das ist bereits eine andere Angelegenheit.

Wenn meine Überlegungen über Ethik bekannt würden, dann würde sich die Weise, wie wir über Ethik sprechen, vollkommen ändern. Nicht um 180 Grad, denn sie sind nicht einfach das Gegenteil der etablierten Version, aber vielleicht um 90 Grad – es würde einfach in eine ganz andere Richtung gehen. Und es wäre bestimmt nicht länger so, dass wir "eh schon wissen", was gemeint ist, wenn jemand sagt, er sehe ein ethisches Problem in irgendeiner Angelegenheit.

Und ganz gewiss würde dann niemand mehr nach „verpflichtenden Ethikschulungen“ rufen, wenn irgendwo in der Gesellschaft ein Problem mit dem Handeln von irgendwelchen Einzelnen oder von Gruppen auftaucht.

Denn Ethik wäre dann nicht mehr länger hauptsächlich Anpassungsinstrument, sondern sie hätte ihre ursprüngliche Funktion, die sie verloren hat, wiedererlangt: Einzelmenschen zum Handeln zu ermutigen. Ich glaube, man nennt das heute „Empowerment“.

Permalink 01.02.15    1 Kommentar »

keine sorge

gäbe es ein ich
wäre es gott

gäbe es kein ich
wäre kein gott

beide fälle
kein grund
zur sorge

ich will

um das erfundene ich
als wirkende ursache
denken zu können

wird der wille
hinzuerfunden

Meine Meinung über die Wissenschaft

In letzter Zeit bin ich von Freunden und Bekannten wieder einmal nach meiner Meinung über die Wissenschaft angesprochen worden; aus dem Grund will ich meine Überlegungen zu diesem Thema hier noch einmal zusammenfassen.

1. Wissenschaft ist eine soziale Organisation. Es gibt freilich auch Menschen, für die Wissenschaft durch die wissenschaftliche Erkenntnismethode bestimmt ist. Mit diesen Menschen kann ich mich nicht über Wissenschaft verständigen, da ich nicht glaube, dass es Wissenschaft ist, wenn jemand in seinem stillen Kämmerchen wissenschaftlich arbeitet, ohne je etwas davon zu publizieren. Aber überzeugen kann ich diese Menschen nicht. Ich kann nur hoffen, dass sie irgendwann die Diskrepanz zwischen dem, was sie für Wissenschaft halten, und dem, was im wissenschaftlichen Betrieb abläuft, bemerken. (Bisweilen habe ich ja den Eindruck, dass sich manche Menschen ihre Meinungen danach aussuchen, wie sehr sie durch sie verletzt werden können. Sie legen sich Ansichten zu, mit denen sie gleichsam sagen: „Hier hast du meine Brust; wenn du willst, stich mir ins Herz!“)

2. In der Wissenschaft geht es strenggenommen nicht um die Gewinnung von Erkenntnissen, sondern um den Kampf um die Anerkennung von bereits gewonnenen Erkenntnissen durch andere Menschen. Das folgt aus Punkt 1, wonach die Wissenschaft eine soziale Organisation ist; aber diesen Schluss sehen viele Menschen nicht. Wenn ich mit mir allein und mein eigener Herr bin, kann ich mich darauf konzentrieren, Erkenntnisse zu gewinnen. Aber wenn ich Teil einer größeren Organisation bin, verlagert sich der Schwerpunkt darauf, andere Menschen von meinen Erkenntnissen zu überzeugen. Damit ich meine Erkenntnisse niederschreiben und publizieren kann, muss ich sie allerdings vorher schon haben.

3. Definieren würde ich Wissenschaft als Organisation sozialer Exklusion, die unter dem Vorwand der Erkenntnisgewinnung für die Gesellschaft arbeitet. Diese Funktion der Produktion von vertrauenswürdigem Wissen erfüllt die Wissenschaft tatsächlich; das würde ich ihr gar nicht absprechen. Allerdings ist die Gewinnung von Erkenntnis ja nur die Rechtfertigung, welche die Wissenschaft der Gesellschaft gegenüber vorbringt, um von dieser Mittel zu erhalten. Intern geht es in der Wissenschaft darum, dass viele Menschen ausgeschlossen werden, damit einige wenige sich um den Futtertrog scharen können. Das Ziel eines Wissenschaftlers/einer Wissenschaftlerin ist nicht Erkenntnis, sondern eine Festanstellung an einer Universität.

4. Im Unterschied zur Wissenschaft kann ich beim Philosophieren schon selbst entscheiden, wann ich einen Erkenntnisfortschritt gemacht beziehungsweise etwas gelernt habe. Der Grund dafür liegt darin, dass ich beim Philosophieren niemanden von meinen Einsichten überzeugen muss, weil die Philosophie ihr Ziel bereits darin erreicht, dass ich überhaupt eine neue Erkenntnis habe. Aber die eigentliche Einsicht, die ich in meinem Buch Einladung zur Odyssee (http://www.amazon.de/s/ref=nb_sb_noss?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&url=search-alias%3Daps&field-keywords=einladung+zur+odyssee) formuliert habe, lautet: Damit der Mensch etwas lernen kann, muss es neben der Wissenschaft jedenfalls noch etwas anderes geben, denn die Wissenschaft ist nicht dazu gemacht, damit Menschen etwas von ihr lernen. Man könnte diese weitere Tätigkeit – mit einem Kunstwort – auch Maukerln nennen. Ich selbst bin halt geneigt, sie Philosophieren zu nennen, weil ich immer der Meinung war, Philosophieren bestehe darin, dass ein Mensch sich selbst klar werde darüber, was er bezüglich einer bestimmten Sache selber für wahr hält (vgl. Markus Arnold: Die Erfahrung der Philosophen. Wien 2010, S. 8ff). (Selbstredend gilt diese Definition von Philosophie nicht für die akademische Philosophie, die ja Wissenschaft ist.)

5. Wissenschaftliche Erkenntnis ist immer ein Beitrag zu einem Fach. Vielen Menschen fällt es schwer, mein Argument, die Wissenschaft sei nicht dazu gemacht, dass wir etwas von ihr lernen, nachzuvollziehen. Sie mögen sich Folgendes vergegenwärtigen: Von wissenschaftlicher Erkenntnis wird immer verlangt, dass sie einen Beitrag zum jeweiligen Fach oder zur wissenschaftlichen Disziplin leiste. Die Darstellung des Wissens wird sich folglich immer nach den Bedürfnissen des Faches richten, nicht aber nach meinen Wissens- und Lernbedürfnissen. Klar, es wird ja auch keinem Wissenschaftler honoriert, dass er einen Beitrag zu meiner persönlichen Erkenntnis geleistet hat, dass er mich in meiner Erkenntnis der Welt vorangebracht hat. Man kann sich vorstellen, dass die fachoptimale Wissensdarstellung nicht zugleich auch die vom pädagogischen oder lernpsychologischen Gesichtspunkt aus gesehen optimale sein wird.

6. Im Grunde basiert die Wissenschaft auf dem Volksglauben, wonach wir etwas wissen, sobald es die Wissenschaftler herausgefunden und publiziert haben. Diese Meinung wird auch in wissenschaftlichen Arbeiten oft unbedacht in der Phrase „Wir wissen heute, dass…“ wiederholt. Ich glaube aber nicht, dass wir etwas bereits wissen, sobald es die Wissenschaft herausgefunden und publiziert hat. Damit eine publizierte Erkenntnis gewusst wird, müssen die Bücher und Zeitschriften zuerst (und dann immer wieder erneut) von vielen Menschen gelesen und verstanden werden. Die Wissenschaft tut so, als sei dieser Lernschritt von Individuen für das Gewusstwerden wissenschaftlichen Wissens nicht nötig. Man geht so vor, als könne das Wissen wie in einem Computernetzwerk einfach auf die Festplatten der peripheren Rechner überspielt werden. Das erklärt das Desinteresse der Wissenschaft an der pädagogischen Darstellung von Wissen.

7. Gegenbeispiele: Auch in der Wissenschaft bestätigt die Ausnahme die Regel. Wenn ich gesagt habe, die Wissenschaft sei eine Maschinerie sozialer Ausschließung, so ist das ein Aspekt, den die Wissenschaft natürlich in der Öffentlichkeit nicht zugeben kann. Dagegen muss sie, um sich die Öffentlichkeit geneigt zu erhalten, den Anschein erwecken, für alle vernünftigen und willigen Menschen offen zu sein. Wie bewältigt sie diese widersprüchlichen Anforderungen? Nun, so wie andere soziale Organisationen auch: Sie fordert beispielsweise von jungen Menschen jahrzehntelang unbezahlte oder kaum bezahlte Vorleistungen und die Erfüllung von Formalvorschriften. Erst wenn sie diese „Prüfungen“ ihres Charakters erfolgreich abgelegt hätten, verspricht man diesen jungen Menschen, würden sie in der Wissenschaft ernst genommen werden. Aber es gibt natürlich auch Ausnahmen, die diese Leistungen nicht erbringen mussten. Wittgenstein, zum Beispiel, hat nie Literaturlisten umformatieren müssen. Er hat in seinem Leben ein wissenschaftliches Werk – den Tractatus – veröffentlicht, der nicht den akademischen Konventionen entspricht. Mit solchen Ausnahmen als Beispielen kommt man mir dann immer wieder, um dafür zu argumentieren dass in der Wissenschaft etwas auch dann angenommen wird, wenn sich jemand nicht vollständig anpasst, solang die vorgebrachten Inhalte nur richtig und wichtig sind. Aber diese Gegenbeispiele akzeptiere ich nicht, weil ich glaube, dass Wittgenstein mit seinem Lebenslauf, wenn alles mit rechten Dingen zugegangen wäre, nicht einmal Universitätsassistent geworden wäre, geschweige denn Professor. Beliebt ist auch, mir als Beispiele für Wissenschaftlichkeit, die geeignet sich, ein idealisiertes Bild der Wissenschaft zu unterstützen, Newton oder Galilei herbeizuzitieren. Doch auch mit diesen beiden Herren kann man sich nicht vergleichen, da sie in einer Zeit lebten, in der sie noch nicht die Anforderungen heutiger Wissenschaft erfüllen mussten.

8. In einer wissenschaftlichen Arbeit wird Wissen so dargestellt, dass in erster Linie die Rechte des Fachs auf dieses Wissen verteidigt werden. Das heißt, wissenschaftliches Wissen hat nicht die Funktion, sich lernwilligen Menschen gegenüber zu öffnen, sondern, ganz im Gegenteil, unliebsame Eindringlinge abzuhalten. Natürlich kann man, wenn man das kann, aus wissenschaftlichem Wissen auch etwas lernen. Aber warum will man ausgerechnet uns gerade jene Texte zum Lernen empfehlen, die sich am meisten von allen gegen das Gelernt- und Verstandenwerden wehren? (Auch mit diesem Thema habe ich mich übrigens schon auseinander gesetzt: http://www.philohof.com/philosophie/philosophische_wissenschaftsforschung/arbeitsblatt%20wann%20ist%20ein%20gegenstand%20vom%20fach%20her%20dargestellt.pdf)

9. Schluss aus alledem: Wer seine Erkenntnis in der Öffentlichkeit durchsetzen und für sie Anerkennung gewinnen will, der muss Wissenschaft treiben, weil wissenschaftliches Wissen als einziges heute allgemeine gesellschaftliche Anerkennung genießt. Dasselbe gilt natürlich für denjenigen Menschen, der in der Wissenschaft etwas werden will oder der in einem Beruf etwas werden will, der stark von der Wissenschaft abhängig ist. Wer sich hingegen für Erkenntnis und Lernen interessiert, der darf gar nicht wissenschaftlich arbeiten, denn es gibt eigentlich keine erkenntnisfeindlichere und antipädagogischere Veranstaltung als die Wissenschaft. Wenn es uns gelingen würde, das wissenschaftliche Arbeiten von der Bildung zu trennen und den Unterricht nach pädagogischen Gesichtspunkten durchzuführen, statt nach wissenschaftlichen, dann wäre für die Bildung viel gewonnen. Außerdem wäre es dann bei vielen Menschen, die sich nur einfach ein bestimmtes Wissen aneignen, nicht aber sich wissenschaftliche damit auseinandersetzen möchten, nicht länger nötig, sie mit Wissenschaft zu belästigen.

Permalink 10.01.15    2 Kommentare »

Naturwissenschaften und Gottesfrage

Bei einer Vortragsveranstaltung zu dem genannten Thema gingen der Theologieprofessor und der Philosophieprofessor einmütig davon aus, dass die Naturwissenschaften letzlich die Entstehung des Kosmos, der Erde und der Lebewesen auf der Erde lückenlos erklären werden, sodass ein Eingreifen Gottes zur Überwindung von Lücken nicht angenommen werden müsse. Als „Lückenbüßer“ wird danach Gott nicht benötigt. Wenn allerdings das Universum mit dem Urknall aus dem Nichts entstanden sein sollte, könnten die Naturwissenschaften das nicht mehr erklären. Man müsste dann doch einen Schöpfer annehmen. Dass die Naturgesetze und -konstanten gerade so beschaffen sind, dass sie das Entstehen der Sterne und der Lebewesen auf der Erde ermöglicht haben (sog. „Feinabstimmung“), ist wegen der extremen Unwahrscheinlichkeit einer solchen Entwicklung wie ein Wunder zu betrachten ebenso wie man die Entwicklungsschritte der biologische Evolution miit der Entstehung des Lebens, der Pflanzen, der Tiere und des Menschen als Wunder ansehen muß. Der Naturwissenschaftler nimmt nun die Naturgesetze und -konstanten einfach als gegeben hin und die Evolution des Lebendigen erklärt er mit Mutation, Neukombination der Gene und Selektion sowie den unendlich großen Zeiträumen, in denen die Entwicklung stattgefunden hat. Wenn er aber dabei stehen bleibt, übersieht er etwas ganz Wesentliches, nämlich dass dieser ganze Prozess nicht nur ein materielles Geschehen, sondern auch eine Entfaltung des Geistes darstellt, in der man auch ein durchgehendes Wirken göttlichen Geistes sehen kann. Gott ist nicht darauf angewiesen, Naturgesetze zu durchbrechen, um Wunder zu wirken. Man kann das Ganze auch als Gottesbeweis (kosmologischerG.) nehmen. Jedenfalls schließt eine lückenlos durch Naturgesetze bestimmte Kausalität in der Welt die Existenz Gottes nicht aus.

Darüber nachdenken, was Philosophie sein hätte sollen. Buchrezension

Link: http://www.uni-klu.ac.at/wiho/downloads/Arnold_Erfahrung_Philosophen_2010.PDF

Rezension von:

Markus Arnold: Die Erfahrung der Philosophen. Turia + Kant, Wien 2010. 479 Seiten.

Dieses Buch ist von großem Wert für diejenigen, die sich noch für die Frage interessieren, was Philosophie eigentlich ist.

Für die meisten Menschen hat sich diese Frage ja bereits erledigt; sie sind der Meinung, dass Philosophie eine wissenschaftliche Disziplin unter anderen ist, die an den Universitäten beherbergt sind.

Markus Arnold hingegen hat seinem Buch zwei Zitate vorangestellt, die auf einen für die Philosophie spezifischen Aspekt aufmerksam machen. Eines davon ist von Boethius und beginnt mit den Worten: „Wer nach Wahrheit trachtet mit tiefgründigem Geist…, der muß ins eigene Innre tief hineinleuchten…“; das andere ist von Kant, seine ersten Worte sind: „Selbstdenken heißt den obersten Probierstein der Wahrheit in sich selbst […] suchen…“

Es ist also ohne Zweifel, dass wir es bei Markus Arnold mit jemandem zu tun haben, der noch weiß, was Philosophie ist, der das noch nicht ganz vergessen hat. Der noch weiß, dass es Philosophie ist, wenn jemand versucht, mit sich selber „auf einen grünen Zweig zu kommen“; dass es Philosophie ist, wenn jemand darüber nachdenkt, was er oder sie selber eigentlich wirklich meint; dass es Philosophie ist, wenn jemand nicht über irgendwas nachdenkt, sondern über das, was ihn oder sie selber persönlich beschäftigt.

Für derlei seltene Menschen, die sich dafür noch interessieren, bietet Markus Arnolds Buch Ressourcen zur Selbstreflexion. Denn es ist ein gelehrtes Buch (ich glaube, es ist seine Habilitationsschrift). Darum habe ich auch eine Zeitlang gebraucht, um mich durchzubeißen. Und nach der Lektüre tut es fast schon wieder not, einzelne Kapitel zum zweiten Mal zu lesen, weil man viele Erklärungsmodelle schon wieder teilweise vergessen hat.

Markus Arnold führt uns in seinem Buch Die Erfahrung der Philosophen auf einen Streifzug durch die Philosophiegeschichte, auf dem er sich mit Platon, Aristoteles, Augustinus, Francis Bacon, Robert Hooke, John Locke, René Descartes, Edmund Burke, Immanuel Kant, Johann Gottfried Herder, Arthur Schopenhauer, Friedrich Nietzsche und der Frankfurter Schule auseinandersetzt.

Er erzählt darin die Geschichte der Philosophie, die im Altertum mehrere Erkenntnismethoden (Platon, Aristoteles, Augustinus) entwickelte, sich jedoch seit der Erfindung der neuzeitlichen Wissenschaft durch Francis Bacon (1561-1626) in einem bis heute andauernden Rückzugskampf der Wissenschaft gegenüber befindet.

Dieser Kampf besteht darin, dass der philosophierende Mensch seine eigenen körperlichen und geistigen Fähigkeiten gegenüber der Wissenschaft in einer im Laufe der Geschichte immer komplexer und differenzierter werdenden Argumentation verteidigt. Die Wissenschaft behauptet nämlich, die menschlichen Sinne betrügen prinzipiell und menschliche Meinungen seien nichts anderes als Idole des Marktes – also alles, was der einzelne Mensch in der Erkenntnis zusammenbringen kann, ist bestenfalls Schwindel und Selbstbetrug. Die Wissenschaft ihrerseits „löst“ dieses Problem durch soziale Zusammenarbeit, also durch Expertentum, was jedoch – aus philosophischer Sicht – den Nachteil hat, dass Wahrheit nicht mehr jedem Menschen offensteht (sondern nur noch den Experten).

Interessant ist, dass die Philosophie dann über Strecken (Edmund Burke, Immanuel Kant), sich die Rechtswissenschaft zum erkenntnistheoretischen Vorbild genommen hat, um neben der Wissenschaft ihr eigenes Erkenntnismodell zu verteidigen. Warum gerade die Rechtswissenschaft? Zum Beispiel deswegen, weil Gesetze, nachdem sie erlassen worden sind, erst ihre Interpretation finden müssen. Das geschieht in der Anwendung des Gesetzes auf den Einzelfall. Damit haben wir es beim Recht mit einem Erkenntnismodell zu tun, das nicht – wie die Wissenschaft – bei primären Wahrheiten beginnt und daraus weitere wahre Erkenntnisse ableitet, sondern es gibt die Möglichkeit einer Aussage, mit der man beginnt und die sich in der Folge durch Konfrontation mit konkreten Einzelfällen „korrigieren“ oder nachadjustieren lässt. Dadurch erhält die konkrete und sinnliche Erfahrung des Einzelfalls zum Teil ihr Daseinsrecht wieder zurück.

Doch das ist nicht der einzige Aspekt des Rechtlichen, den Philosophen für das philosophische Erkenntnismodell fruchtbar zu machen versuchten. Ich wusste zum Beispiel nicht, wie sehr Kants Philosophie an das Vorbild der Rechtslehre angelehnt ist.

Eine andere Entwicklungslinie – über Herder, Schopenhauer, Nietzsche und die Frankfurter Schule – macht den menschlichen Körper und die expressive Funktion der menschlichen Sprache zum Grundstein eines spezifisch philosophischen Erkenntnismodells. Bei der Frankfurter Schule spielt dann insbesondere die Psychoanalyse in diesem Zusammenhang noch einmal eine besondere Rolle.

Am Ende seines Buchs kommt Markus Arnold zu einem Ergebnis, zu dem ich in meinem Buch Einladung zur Odyssee. Eine erkenntnistheoretische Reflexion über die „epische Seite der Wahrheit“ (ATUT und Neisse Verlag, Wroclaw und Dresden 2008) auch schon gekommen bin, nämlich dass die Erzählung eine zentrale Rolle in der menschlichen Erkenntnis zukommt. Bei Arnold nimmt diese Einsicht die Gestalt an, dass er der Erzählung die Funktion zuspricht, eine apriorische Form menschlichen Denkens zu sein. „Es gibt neben der Logik und der kantschen Kategorientafel noch andere apriorische Formen des Denkens, welche die Philosophie bis jetzt nicht als solche beachtet hat, obwohl sie auf diese in ihren Begründungen immer wieder implizit zurückgreifen musste.“ (S. 442)

Im Klartext bedeutet das: Wenn wir Menschen eine Erkenntnis machen, dann ist das immer nur eine Erkenntnis im Rahmen oder vor dem Hintergrund einer Geschichte, die wir darüber erzählen.

Außerdem steckt in dieser Überzeugung Arnolds von der Erzählung als Grundstruktur menschlicher Erkenntnis zugleich die Meinung, dass eine andere Auffassung von Wahrheit und Erkenntnis – die wissenschaftliche Auffassung – falsch ist. Die Wissenschaft meint nämlich, Erkenntnis bestehe darin, wahre Aussagesätze über die äußere Realität zu machen, und die Wahrheit dieser Sätze bestehe rein darin, dass sie auf die gegebenen Tatsachen in der äußeren Realität zutreffen.

Falsch, meint dazu Markus Arnold. Es gebe auch so etwas wie die „menschliche Wahrheit“. Diese besteht darin, Wahrheit nicht nur in der Übereinstimmung von wahren Aussagesätzen und Welt zu sehen, sondern zudem auch Aufschluss zu geben über das Verhältnis des Menschen zu seinen Erkenntnissen und den Gegebenheiten in der Welt.

Gut. Mit all dem bin ich einverstanden. Aber um mich geht es ja hier nicht. Ich meine, was hilft es, den Gläubigen zu predigen. Womit ich nicht ganz einverstanden bin, ist der Schluss von Markus Arnolds Buch. Denn, ehrlich gesagt, wenn sich schon mal jemand in dieses heikle Thema hineinwagt, dann würde ich schon erwarten, dass er einen Teil des Buchs dafür reserviert, seine eigene Meinung frei auszusprechen und offen alle mit seiner These verbundenen Probleme anzusprechen. Diesen Teil des Buchs gibt es aber nicht. Selbst in dem Teil „Nachwort. Erkenntnistheoretische Perspektiven“ (S. 423 ff.) bleibt Arnold so sehr Professor, dass er das Referieren nicht unterlassen kann – und anstatt zusammenzufassen und auf Bedenken einzugehen, bringt er weitere (wenn auch sehr interessante) Inhalte vor.

Mich wundert ja – und gleichzeitig wundert es mich nicht –, dass dieses Buch im akademischen Feld Platz gefunden hat. Wegen des Themas hätte es eigentlich keinen Platz finden dürfen, schließlich ist die heutige Universität weitgehend verwissenschaftlicht. Aber da die von Arnold ausfindig gemachten spezifischen Aspekte des philosophischen Erkenntnisprojekts nun mal in der Philosophiegeschichte in verschiedenen Epochen wiederzufinden sind, war es möglich, darüber ein gelehrtes Buch zu schreiben, einen verschriftlichten Zettelkasten sozusagen. Aus dem Grund ist das Buch dann doch wohl als akademische Arbeit durchgegangen.

Die Konsequenz daraus ist, dass die sich aus Arnolds Ansatz ergebenden Fragen unbeantwortet bleiben. Am Ende des Buchs hat er zwar plausibel gemacht, dass das philosophische Erkenntnisprojekt und die Erzählung als menschliche Denkform eine nicht unbedeutende Rolle spielen in der menschlichen Erkenntnis. Aber darüber, wie denn nun das alte philosophische Erkenntnisprojekt an der heutigen wissenschaftlichen Universität fortgesetzt werden kann, darüber gibt es keine Auskunft. Wichtig wäre auch eine Antwort auf folgende Frage: Die Wissenschaft ist nicht zuletzt deshalb heute so groß in Universität und Gesellschaft, weil wir uns von ihr Erkenntnisse einer ganz bestimmten Art erhoffen. Solche nämlich, die zu technischen Innovationen führen und uns im weltweiten Wirtschaftskonkurrenzkampf temporäre Vorteile bescheren. Welche Erkenntnisse aber bringt ein Erkenntnismodell hervor, das auf dem Konzept der Erzählung aufbaut? Und welche Vorteile bringen diese Erkenntnisse wem ganz genau?

Vielleicht besteht an dieser Stelle bei Arnold auch ganz einfach ein fehlendes Problembewusstsein. Der Titel eines Aufsatzes von Donald Davidson „Der Mythos des Subjektiven“ bringt gut zum Ausdruck, dass es viele PhilosophInnen gibt, die nicht einmal wissen, wovon Arnold in seinem Buch redet. Viele Menschen, und auch viele Philosophen, halten die Idee von einer persönlichen Erkenntnis der Welt durch den einzelnen Menschen für inexistent, für etwas, das es gar nicht gibt, das gar nicht möglich ist. Dabei wäre genau das das Projekt der Philosophie gewesen, wenn wir es nicht vergessen hätten.

Aber für mich bedeutet das nur, dass die Geschichte, die Markus Arnold in seinem Buch Die Erfahrung der Philosophen erzählt, unvollständig ist. Ich nehme das Buch an als den gelungenen Nachweis, dass außer mir zumindest noch ein weiterer Mensch auf der Welt weiß, was Philosophie ist oder hätte sein sollen. Und auch dafür, dass es für unsere Meinung offenbar zahlreiche Belege in der Philosophiegeschichte gibt.

Wichtiger als das aber ist, dass dieses Buch eine wichtige Informationsressource und Zitatequelle für Menschen unserer Denkungsart darstellt. Deshalb werde ich diesem Buch einen prominenten Platz in meiner persönlichen Literaturliste widmen und mir vornehmen, in der Zukunft beim Verfassen philosophischer Arbeiten immer wieder darin nachzusehen und ausführlich daraus zu zitieren!

Permalink 14.12.14    2 Kommentare »

Ist Karriere noch attraktiv?

Philosophie hat ja viel damit zu tun, die Wörter und Begriffe, die in der gegenwärtigen Epoche in aller Munde sind, zu reflektieren, um auf diese Weise herauszufinden, was das eigentlich für eine Zeit ist, in der wir leben, und wie sie funktioniert.

 

„Karriere“ ist so ein Wort, das heute – immer noch – in aller Munde.

Unlängst war ich bei der Career Calling 14-Messe (20.11.2014, in der Messe Wien, www.careercalling.at) und wunderte mich: Wie ist es möglich, dass man heute immer noch überzeugt ist, mit diesem deprimierenden Begriff junge, arbeitswillige Leute anzulocken? Und wie kommt es eigentlich, dass das Wort „Karriere“ in der Öffentlichkeit nirgendwo diskutiert wird? Die Zeitungen haben doch eigene Karriere-Teile – dort könnten sie das doch tun! Versagen hier die Medien völlig?

Was fällt mir ein, wenn ich an „Karriere“ denke?

  1. Unfreiheit. Wenn ich an „Karriere“ denke, dann fällt mir als erstes Unfreiheit ein. Denn Karriere bedeutet „Berufslaufbahn“. Daraus folgt, dass man in einer Karriere immer auf einer Karrieresprosse steht, die sich zwischen zwei weiteren Karrieresprossen befindet: der tieferen, die man hinter sich gelassen hat, und der höheren, auf die man zustrebt. In einer Karriere tut der Arbeitnehmer daher immer alles, um die nächsthöhere Karrieresprosse zu erlangen. Was aber, wenn er diese gar nicht erreichen will? Wenn er einfach seinen Job machen und sich dabei frei fühlen will. Also wenn er sich frei fühlen will, danach entweder im selben Beruf zu bleiben oder aber etwas anderes zu tun? Einen freien Horizont haben, das ist doch etwas Attraktives!

  2. Willkür bis hin zur Schrulligkeit, der man ausgeliefert ist. Zweitens fällt mir beim Wort „Karriere“ Willkür ein. Es ist das eine Willkür, der man ausgesetzt ist, da die meisten Karrieren entweder innerhalb eines Unternehmens oder aber innerhalb einer Berufsgruppe stattfinden. In solchen Gruppierungen kann es für die Erlangung der nächsten Karrieresprosse spleenige Prüfungen oder „Qualifikationen“ geben. Hier sagt man dir: „Spring durch einen brennenden Reifen!“ Dort sagt man dir: „Iss drei tote Fliegen!“ Und der Arbeitnehmer erfüllt diese Bedingungen, ob er ihre Sinnhaftigkeit einsieht oder nicht. Wenn ich mir das vorstelle, fällt mir zur Karriere nur ein Vergleich ein: der Alptraum.

  3. Gängelung. Drittens fällt mir beim Wort „Karriere“ Gängelung ein. Denn es gibt ja nicht nur viele Dinge, die man für die Karriere tun muss. Ebenso viele oder noch mehr Dinge gibt es, die man nicht tun darf, wenn man Karriere machen will. Diese Dinge dürfen nicht getan werden, weil das die eigene Karriere in Gefahr bringen würde. Ein Mensch, der Karriere, machen will, darf so viele Dinge nicht tun, dass er mir wie ein halber Mensch erscheint.

  4. Fremdbestimmung. Viertens fällt mir zum Begriff „Karriere“ Fremdbestimmung ein. Denn eine Karriere besteht ja darin, dass nicht ich selbst bestimme, wann ich mit mir selbst zufrieden bin, denn das bestimmt die Karriere. Wenn man als Arbeitnehmer die nächste Karrieresprosse erreicht, ist das so, als würde die Karriere – oder die Institution oder Organisation, die einem die Karriere ermöglicht – zu einem sagen: „Das hast du gut gemacht?“ Es ist eigentlich verwunderlich, dass nicht mehr Leute sagen: „Ich will mich selbst definieren! Ich will selbst entscheiden, was ich bin und auf welche meiner Leistungen ich stolz bin!“

Die vorhin genannten Aspekte sind nun erst einmal aus der Perspektive des Arbeitnehmers oder der Arbeitnehmerin gedacht, aber eigentlich ist Karriere ja auch für Unternehmen nicht etwas ungetrübt Gutes: Bei Karriere aus der Sicht von Unternehmen denke ich an steile Hierarchien; an risikoscheue Manager in den mittleren Ebenen, die „nur keinen Fehler machen wollen“; an mühsame Dienstwege für jede neue Idee und fehlende Innovationskraft des Unternehmens; an ein oberes Management, das sich abschottet und den Kontakt verliert zu dem, was „die da unten machen“.

Aber das nur als Randbemerkung: Eigentlich geht es mir ja hier um die Frage, warum eine Messe, auf der Arbeitgeber MitarbeiterInnen suchen, sich den Namen „Karriere“ in den Titel schreibt und meint, alle Menschen müssten das lustig finden und mit Freude kommen.

Mir ging es eher so, dass ich dachte: „Das ist im Grunde eine wichtige Veranstaltung, aber warum dieser unglückliche Name?“

Ich meine, warum bieten Unternehmen statt einer Karriere nicht

  • gutbezahlte Jobs an?

  • Oder berufliche Positionen mit einem interessanten Aufgabengebiet?

  • Oder Anstellungen, die nicht allzu viel an Spezialisierung verlangen, sodass die Arbeit nicht gänzlich eintönig wird?

  • Oder eine Arbeit, die einem die Menschenwürde nicht nimmt? (In Polen las ich dafür in Zeitungen öfters den Ausdruck „godna praca“ – würdevolle Arbeit, englisch: „decent work“; im Deutschen ist mir ein vergleichbarer Ausdruck nicht bekannt.)

Würde das keine fleißigen Leute anlocken? Ich glaube schon. Meine Vermutung ist, dass die meisten Leute einfach einen Job suchen? Dagegen kann ich mir gar nicht vorstellen, dass irgendjemand tatsächlich Karriere machen will. Warum beschweren sich die Unternehmen also mit diesem unglückseligen Begriff und bieten den Leuten nicht anstatt dessen einfach das an, was sie wollen: Jobs, Anstellungen, gute Arbeitsplätze?

Permalink 30.11.14    3 Kommentare »

Do Not Make Love, Not War!

In einem bekannten Gedicht ist Liebe die Ursache eines bewaffneten Kampfes. In diesem Kampf werden nicht Feinde bekämpft, sondern der eigene Bruder. Darüber hinaus behauptet das Gedicht, dass dieser Kampf nicht mit dem Tod der Kämpfenden endet, sondern in alle Ewigkeit weitergeht. Denn die beiden Brüder müssen auch noch im Seelen- oder Geisterreich täglich mitternachts gegeneinander kämpfen.

Dieses Gedicht, in welchem Gräfin Lauras Augenfunken zündete der Brüder Streit, stellt Liebe also nicht nur nicht als etwas Gutes dar, sondern als etwas außerordentlich Böses; so böse, dass kaum Schlimmeres vorstellbar ist. Wenn an diesem Gedanken etwas dran, dann ist Liebe zumindest nicht einfach das Gegenteil von Hass und Gewalt, so wie es uns der Protestruf der 68er „Make love, not war!“ und das neutestamentarische „Liebe deinen Nächsten wie dich selbst!“ suggerieren. Dann gibt es noch weitere Aspekte in der Beziehung zwischen Liebe und Krieg.

Viele Menschen fassen Begriffe eindimensional auf. Mit eindimensionaler Auffassung von Begriffen meine ich, dass für sie Liebe ganz einfach das logische Gegenteil von Aggression und Kampf ist und sie nicht bereit sind, neben diesem Aspekt noch weitere Aspekte in der Beziehung zwischen Liebe und Krieg wahrzunehmen.

Auf diese Eindimensionalität der Vorstellung baut der Spruch „Make love, not war!“ auf, indem er im Grunde eigentlich zum Ausdruck bringt: „Mach Liebe anstatt Krieg zu machen!“, als ob das ein Gegensatz wäre. In dieselbe Kerbe schlägt der neuttestamentarische Spruch, der suggeriert, dass jemand seinen Nächsten sicherlich nicht misshandeln und töten wird, wenn er ihn liebt wie sich selbst. (Wie wir wissen, ist auch tatsächlich niemals im Namen des Christentums Krieg geführt worden, noch ist in seinem Namen je jemand gefoltert und verbrannt worden.)

Heinrich Heines Gedicht legt wohl eher die Lösung „Make less love and less war.“ nahe, aber eine so komplexe Botschaft wird wohl bei vielen ZuhörerInnen im Publikum kaum durchdringen.

Eindimensionale Argumente sind es, die PolitikerInnen dazu verhelfen, Fernsehduelle zu gewinnen. Die Knappheit der Sendezeit sowie die Notwendigkeit, auf Anwürfe des Diskussionsgegners unmittelbar zu reagieren, lassen die Darstellung von komplexeren Sachverhalten nicht zu.

Eindimensionalität in der Auffassung von Wörtern und Begriffen ist auch die Grundlage von zugkräftigen politischen Slogans (wie zum Beispiel jenem blödsinnigen von John F. Kennedy: „Frage nicht, was dein Land für dich tun kann; frage, was du für dein Land tun kannst!“, auf den zum Glück Hans Söllner in seinem Lied „Hey Staat!“ geantwortet hat).

Der nachdenkende Mensch, der seine Begriffe in einen umfassenderen Zusammenhang stellt, weil er sieht, dass das der Wirklichkeit besser entspricht, weiß, dass viele seiner ZuhörerInnen ihn missverstehen werden, ganz einfach deshalb, weil sie Begriffe eindimensional verstehen wollen.

Wenn er sagt, was er für richtig hält, werden sie daher sagen, er drücke sich umständlich und unverständlich aus.

Daraus können wir folgern, dass es sich beim philosophierenden Menschen um jemanden handelt, dem es, frei nach Watzlawick, an Kommunikationsfähigkeit beziehungsweise Medienkompetenz fehlt, ja fehlen muss.

Sollte dennoch einmal ein Philosoph/eine Philosophin medienkompetent zu sein scheinen, so wäre Misstrauen angebracht und würde mir genauer ansehen wollen, worauf dieser Eindruck eigentlich beruht.

Permalink 16.11.14    2 Kommentare »

Gilt in unserer Welt das Kausalprinzip?

Man kann sich fragen, wie die Ereignisse in unserer Welt zusammenhängen, ob sie einander bedingen und verursachen und ob es Kausalität als Prinzip gibt und ob dieses Prinzip sogar als durchgehend wirksam festzustellen ist. Schon die alten Griechen, vor allem Heraklit , Platon  und Aristoteles haben hierzu die Auffassung vertreten, dass nichts ohne Grund geschieht. Thomas von Aquin baut seine Philosophie maßgeblich auf dem Kausalsatz auf. Das gilt auch für Descartes.  Leibniz prägte den „Satz vom zureichenden Grund“, wonach nichts ohne zureichenden Grund geschehe. Dagegen führt David Hume aus, dass der kausale Zusammenhang von Wirkung und Ursache weder logisch abgeleitet werden noch empirisch nachgewiesen werden könne. Die Annahme einer Kausalität bei regelmäßig aufeinander folgenden Ereignissen sei nur eine Gewohnheit von uns Menschen. Für Kant ist Kausalität nur etwas in unserem Denken a priori Vorgegebenes,  dem nichts Objektives in der Welt entspricht. Auch von der modernen Mikrophysik wird das Kausalprinzip in Zweifel gezogen, weil es da spontane Vorgänge gibt, die nur statistischen Gesetzmäßigkeiten folgen. Betrachten wir nun unsere Welt, wie sie uns begegnet und fragen wir uns, ob wir ein objektives durchgehendes Kausalprinzip annehmen sollen:
Wenn es täglich dunkel und am nächsten Morgen wieder hell wird, dann deswegen, weil die Erde sich um sich selbst dreht. Die Jahreszeiten werden durch die Kreisbewegung der Erde um die Sonne verursacht. Der Mond erscheint einmal als Vollmond , einmal als Halbmond und einmal als Sichel, weil er verschiedene Positionen gegenüber der Sonne und der Erde einnimmt. Hochwasser wird durch langen starken Regen, Dürre durch eine lange Trockenheit verursacht. Aber auch die ganz alltäglichen Vorkommnisse in unserem Leben haben alle eine Ursache: Ich drehe den Wasserhahn auf und das Wasser läuft, und umgekehrt. Das Wasser für den Kaffee kocht, weil es lang erhitzt wurde. Ich halte als Autofahrer an, weil die Ampel rot ist oder weil ein vorfahrtsberechtigtes Fahrzeug kommt. Auch psychische Vorgänge haben jeweils eine Ursache, auch wenn diese manchmal nicht so klar zu erkennen ist. Vielfach bieten Naturgesetze ein Erklärung für das , was geschieht: Wenn ich einen Stein in die Luft werfe und dieser fällt dann zu Boden, dann ist das eine Wirkung der Gravitationskraft. Die Meinung von Kant, dass es ausserhalb unserers Denkens in der Natur keine Kausalität gebe, ist nicht haltbar. Auch David Hume kann uns nicht überzeugen Wir können nicht nur Regelmäßigkeiten beobachten, aus denen zugegebenermaßen keine logisch zwingenden  Schlüsse gezogen werden können, sondern wir wissen oft auch, warum etwas geschieht, weil wir nämlich die funktionellen Zusammenhänge kennen: Wenn ich das Licht einschalte und das Licht geht an, dann weiß ich, dass das etwas mit dem elektrischen Stromkreislauf zu tun hat, den ich in diesem Moment schließe. Wenn ich eine Zimmerpflanze nicht mehr gieße, weiß ich, warum sie zugrunde geht: Ohne Wasser kann sie nicht leben. So gibt es also zahllose funktionelle Zusammenhänge in unserer Welt, aus denen sich erklärt, warum bestimmte Ereignisse bestimmte Wirkungen haben.
Wir stellen also fest, das die Ereignisse in unserer Welt normalerweise eine Ursache haben, und zwar, mit Leibniz, dass sie einen  „zureichenden Grund“ haben. Die Aussage, dass sie notwendigerweise so eintreten mussten, ist damit nicht verbunden. Man kann auch nicht beweisen, dass es keine Ereignisse gibt, die ohne zureichenden Grund eintreten. Dazu müsste man darlegen können, dass solche Ereignisse logisch  unmöglich sind, was aber nicht der Fall ist. Man kann sich leigliich schwer vorstellen, dass sich etwas ereignet, ohne dass es einen Grund dafür gibt. Selbst wenn wir annähmen, dass Wesen aus einer transzendenten Welt in Geschehnisse unserer Welt eingreifen, würde eben dieses Eingreifen den zureichenden Grund darstellen. Auch haben Ereignisse, die uns als sinnlose Zufälligkeiten erscheinen, ihren Grund in den voneinander unabhängigen Faktoren, die dabei zusammengewirkt haben und die jeweils ihren eigenen zureichenden Grund haben. Das Kausalgeschehen in unserer Welt ist ja nicht einfach linear, sondern in der Regel komplex. Es müssen viele Bedingungen und verursachende Faktoren zusammentreffen, damit sich etwas Bestimmtes ereignen kann: Wenn Götze kurz vor Ende des Spiels das Tor schießt, das Deutschland zum Fußballweltmeister gemacht hat, dann muß er nicht nur zur rechten Zeit am richtigen Ort sein und  optimal schießen, sondern er muß auch passende Flanke erhalten, es darf ihn kein Gegner stören, der Torwart muß den Ball nicht abwehren können, Götze darf auch nicht an diesem Tage krank sein, der Trainer muß ihn eingewechselt haben, und so können wir das zurückführen bis zu Adam und Eva.
Nun gibt es aber doch Ereignisse, bei denen man zweifeln könnte, ob sie einen zureichenden Grund haben, nämlich Vorgänge in der Mikrophysik wie den Zerfall radioaktiver Elemente und Quantensprünge bei den Elektronenbahnen. Bei diesen gibt es nur statistische Gesetzmäßigkeiten. Die Halbwertszeit bei den radioaktiven Atomen besagt, dass innerhalb einer bestimmten Zeit, zum Beispiel 1000 Jahre, die Hälfte der Atome zerfällt. Welche das im einzelnen sind, ist nicht festgelegt und kann nicht vorausgesagt werden. Der Zerfall eine ganz bestimmten Atoms scheint daher keinen zureichenden Grund zu haben. Die statistische Gesetzmäßigkeit besagt jedoch, dass die radioaktiven Atome die Neigung haben, zu zerfallen, und zwar je nach Länge der Halbwertszeit stärker oder schwächer. Wenn sich diese Neigung im Einzelfall verwirklicht hat, können wir sie als zureichenden Grund für den Zerfall ansehen. Eine Notwendigkeit, dass das Atom genau zu diesem Zeitpunkt zerfallen ist, gibt es aber nicht. Das macht aber nichts. Der Grund muß ja nur zureichend sein. Die Vorgänge im mikrophysikalischen Bereich sind nicht vollständig determiniert, sie haben aber jeweils ihren Grund.
Wir sollten daher sinnvollerweise davon ausgehen, dass in unserer Welt ein durchgehendes Kausalprinzip gilt.

Der Mensch als Durchgangsstation materieller und geistiger Entwicklung


Betrachten wir die Entwicklung der Welt, wie sie die Naturwissenschaften uns darstellen. Am Anfang unseres Universums gab es nur Wasserstoff, Helium und energetische Felder. Daraus sind in einer  physikalisch-chemisch-biologischen Entwicklung die Sterne, die schwereren chemischen Elemente (zum Beispiel das Gold!), die Planeten, die Pflanzen, die Tiere und schließlich der Mensch entstanden. Dabei ist jeder Entwicklungsschritt, jeder neue Zustand der Dinge, aus einem früheren Zustand hervorgegangen, der diesen Schritt ermöglicht hat. Alles befindet sich im Fluss. Auch Sterne sterben, Berge werden abgetragen, Pflanzen, Tiere und Menschen sterben. Die Materie aber, aus der sie aufgebaut sind, bleibt erhalten und es entstehen aus ihr neue Gebilde. Der Körper jedes einzelnen Menschen ist so als lebender Organismus nur eine Durchgangsstation, eine momentane Situation, dieser umfassenden materiellen Entwicklung. Auch seine Knochen, die möglicherweise länger überdauern, verschwinden spätestens, wenn die Sonne zum Roten Riesen wird und die Erde verschluckt.
Überlegt man nun, wie es um die geistigen Dinge  steht, die in unserer Welt entstanden sind, und um die geistigen Vorgänge, die in ihr ablaufen, dann erkennt man, dass jeder neue geistige Zustand - ebenso wie das bei der materiellen Entwicklung der Welt der Fall ist - durch einen vorangehenden Zustand ermöglicht worden ist  und sich letzlich alles aus einem geistigen Urgrund heraus entwickelt. Dass die geistigen jeweils zusammen mit materiellen Vorgängen einheitliche Vorgänge bilden, sei nur am Rande erwähnt. Im Rahmen der globalen geistigen Entwicklung ist das geistige (geistig-seelische) Werden und Verlöschen des einzelnen Menschen nur eine Durchgangsstation oder -phase. Das gibt uns Veranlassung, uns als Menschen ganz klein zu fühlen, dafür aber die geistig-materielle Entwicklung des Kosmos und unserer Lebenswelt aus einem elementaren Urgrund heraus umso mehr zu bewundern. Vielleicht stirbt man dann leichter.

Permalink 11.10.14    5 Kommentare »

erfunden

erinnerung erfindet wahrnehmung
wahrnehmung erfindet dasein
dasein erfindet sprache
sprache erfindet mich

nietzsche reloaded

nicht nur gott
ist tot

der mensch
ist es auch

haarig

der einzige unterschied
zwischen affe und mensch
besteht darin
daß sich der mensch enthaart
um sich vom affen zu unterscheiden

andeutung

nur bedeutungslosigkeit
kann jede beliebige form
annehmen

folglich
ist jede form
bedeutungslos

gelle

vernetzte dummheit
ist noch keine
schwarmintelligenz

Philosophie: Was existiert in unserer Welt?

0]>

Philosophie: Was existiert in unserer Welt? 31.7.14

Philosophie heißt ja Liebe zur Weisheit; welche Weisheit kann uns aber Philosophie bringen? Betrachten wir die Ontologie, die Lehre von dem, was in unserer Welt existiert. Dabei geht es nicht darum, was im Einzelnen da oder dort vorhanden ist, sondern was es überhaupt gibt. In unserer Erfahrungswelt begegnen wir den materiellen Dingen, wie den Tischen, Stühlen, Häusern, Fahrzeugen, Autos, Pflanzen, Tieren, Menschen, der Sonne,dem Mond, den Sternen. Dann sehen wir , dass es auch geistige Dinge gibt, wie Bücher, Gemälde, Musik, wissenschaftliche Erkenntnisse, Rechtsnormen und viels andere mehr. Wir bemerken, dass (höhere) Tiere und Menschen Empfindungen, Wahrnehmungen und ein Gedächtnis haben. Sie sind daher nicht nur materielle Dinge, sondern auch von geistiger Art. Menschen können denken uund aufgrund von Überlegungen oder auch Vorlieben Entscheidungen treffen. Sie sind also auch und vor allem geistige Wesen. Wie ist es nun mit den Pflanzen? Sie ernähren sich, wachsen, bewegen sich,wenn auch an einen Standort gebunden, vermehren sich und verbreiten sich damit, nehmen Umweltbedingungen wie Temperaturänderungen und Sonnenschein wahr und reagieren darauf. Sie sind also wesentlich mehr als materielle Gebilde: Sie haben Leben. Aristoteles spricht davon, dass sie eine anima vegetativa, eine vegetative Seele haben. Ausserdem vollzieht sich ihre individuelle Entstehung und Entwicklung aufgrund des genetischen Codes ihrer DNA. Damit sind auch Pflanzen vor allem geistige Wesen. Schließlich die leblosen Dinge: Sie sind das , was sie sind, durch ihre innere Struktur und äußere Form und gegebenenfalls durch ihre besondere Zweckbestimmung. Das kann man leicht sehen bei den von Menschen hergestellten Dingen wie Tische, Stühle, Häuser, Kleidungsstücke, Kugelschreiber, aber auch bei Dingen, die die Tiere herstellen, wie Vogelnester, Biberdämme, Spinnennetze. Diese haben alle einen spezifischen geistigen Gehalt. Aber auch Dinge ohne eine solche Zweckbestimmung haben jedenfalls eine Form und Struktur und besitzen dadurch geistigen Gehalt.

Damit gibt es keine Dinge, die nicht auch eine geistige Seite aufweisen. Materie als solche hat keine Existenz. Es gibt sie nur in Verbindung mit Geist. Wenn wir Dinge wahrnehmen, nehmen wir ihre geistige Seite wahr. Zwar sind die Wahrnehmungsprozesse auch materielle Prozesse: Beim Sehen empfangen wir Lichtwellen, beim Hören Schallwellen, beim Riechen Stoffe in der Luft, beim Schmecken die Speise, beim Fühlen die körperliche Berührung oder die Wärmestrahlung. Entscheidend ist aber die Wahrnehmung der geistigen Seite der Dinge. Nur dadurch können wir erkennen, was sie sind.

In unserer Welt gibt es nun nicht nur Dinge, sondern auch Ereignisse, Abläufe, Handlungen, Tätigkeiten, also dynamische Vorgänge. Auch diese weisen eine materielle und eine geistige Seite auf: Bei einer Demonstration bewegen sich viele Menschen durch die Straßen. Nur an ihren Tafeln und Schriftbändern kann ich jedoch erkennen, wogegen oder wofür sie demonstrieren. Ein Lehrer erzeugt in der Klasse nicht nur Schallwellen, sondern er unterrichtet die Schüler. Eine Bewegung der Hand kann vielerlei bedeuten. So sind Ereignisse das, was sie sind, nur aufgrund ihrer geistigen Seite. Das gilt - so überraschend das sein mag - selbst für reine Naturvorgänge wie Wetterereignisse: Ich kann erkennen, was sie sind, aufgrund ihrer geistigen Seite. So erkenne ich Donner, weil ich weiß, wie Donner sich anhört und was er bedeutet.

Überlegen wir nun, wie die Dinge, die wir spontan als rein geistig ansehen würden, wie Bücher, Filme, Kunstwerke, wissenschaftliche Theorien, in unserer Welt existieren, dann bemerken wir, dass sie jeweils eine materielle Grundlage haben: Ein Buch ist auf Papier gedruckt oder findet sich als Hörbuch auf einer CD, ein Gemälde besteht auch aus diversen Materialien, Musik erklingt mit Hilfe von Schallwellen in der Luft oder ist auf einem Tonträger aufgezeichnet oder ist mit Noten auf Papier gedruckt. Wissenschaftliche Erkenntnisse sind in Medien wiedergegeben, nachdem sie ursprünglich im Kopf des jeweiligen Entdeckers vorhanden waren. Was im Computer gespeichert ist, ist geistig, hat aber eine materielle Grundlage. Derartige Beobachtungen verleiten zu der These, dass alle geistig existierenden Dinge auch materiell existieren, dass sie, um zu existieren, eine materielle Grundlage benötigen.

Um diese These zu erproben, kann man überlegen, ob es zum Beispiel Gott, Engel, Dämonen und unsterbliche Seelen gibt. Diese kann es geben und man kann sich vorstellen, dass sie dafür keiner materielle Grundlage bedürfen. Es ist nun aber so, dass ihr Vorhandensein umstritten ist und nicht gewusst werden, sondern allenfalls geglaubt werden kann. Man sollte sich aber bei philosophischen Überlegungen besser zunächst an die Dinge halten, die zweifelsfrei existieren und uns in unserem Leben ständig begegnen wie Bücher, CD´s und dergleichen.

Gehen wir also davon aus, dass die Dinge und auch die Ereignisse eine materielle und eine geistige Seite haben, weil Materie und Geist zusammen ihre Existenz begründen und sie zu dem machen, was sie sind.

Ereignisse in diesem Sinne sind auch unsere Gedanken, Wahrnehmungen und Empfindungen. Sie sind gleichzeitig Vorgänge in unserem Gehirn und haben darin ihre materielle Grundlage. Das ist nun eine Aussage von großer Bedeutung, die entsprechend umstritten ist. Die neuronalen Vorgänge im Gehirn folgen nämlich den Naturgesetzen und sind dadurch (weitgehend) determiniert. Es stellt sich die Frage, ob die mit ihnen verbundenen geistigen Vorgänge eigene Gesetzmäßigkeiten aufweisen, also gegenüber den materiellen Vorgängen autonom oder ob sie bloße Begleiterscheinungen zu diesen sind, die keine eigenständige kausale Wirksamkeit haben. Das ist aber ein großes Thema für sich.

Philosophie: Was existiert in unserer Welt?

Philosophie heißt ja Liebe zur Weisheit; welche Weisheit kann uns aber Philosophie bringen? Betrachten wir die Ontologie, die Lehre von dem, was in unserer Welt existiert. Dabei geht es nicht darum, was im Einzelnen da oder dort vorhanden ist, sondern was es überhaupt gibt. In unserer Erfahrungswelt begegnen wir den materiellen Dingen, wie den Tischen, Stühlen, Häusern, Fahrzeugen, Autos, Pflanzen, Tieren, Menschen, der Sonne,dem Mond, den Sternen. Dann sehen wir , dass es auch geistige Dinge gibt, wie Bücher, Gemälde, Musik, wissenschaftliche Erkenntnisse, Rechtsnormen und viels andere mehr. Wir bemerken, dass (höhere) Tiere und Menschen Empfindungen, Wahrnehmungen und ein Gedächtnis haben. Sie sind daher nicht nur materielle Dinge, sondern auch von geistiger Art. Menschen können denken uund aufgrund von Überlegungen oder auch Vorlieben Entscheidungen treffen. Sie sind also auch und vor allem geistige Wesen. Wie ist es nun mit den Pflanzen? Sie ernähren sich, wachsen, bewegen sich,wenn auch an einen Standort gebunden, vermehren sich und verbreiten sich damit, nehmen Umweltbedingungen wie Temperaturänderungen und Sonnenschein wahr und reagieren darauf. Sie sind also wesentlich mehr als materielle Gebilde: Sie haben Leben. Aristoteles spricht davon, dass sie eine anima vegetativa, eine vegetative Seele haben. Ausserdem vollzieht sich ihre individuelle Entstehung und Entwicklung aufgrund des genetischen Codes ihrer DNA. Damit sind auch Pflanzen vor allem geistige Wesen. Schließlich die leblosen Dinge: Sie sind das , was sie sind, durch ihre innere Struktur und äußere Form und gegebenenfalls durch ihre besondere Zweckbestimmung. Das kann man leicht sehen bei den von Menschen hergestellten Dingen wie Tische, Stühle, Häuser, Kleidungsstücke, Kugelschreiber, aber auch bei Dingen, die die Tiere herstellen, wie Vogelnester, Biberdämme, Spinnennetze. Diese haben alle einen spezifischen geistigen Gehalt. Aber auch Dinge ohne eine solche Zweckbestimmung haben jedenfalls eine Form und Struktur und besitzen dadurch geistigen Gehalt.

Damit gibt es keine Dinge, die nicht auch eine geistige Seite aufweisen. Materie als solche hat keine Existenz. Es gibt sie nur in Verbindung mit Geist. Wenn wir Dinge wahrnehmen, nehmen wir ihre geistige Seite wahr. Zwar sind die Wahrnehmungsprozesse auch materielle Prozesse: Beim Sehen empfangen wir Lichtwellen, beim Hören Schallwellen, beim Riechen Stoffe in der Luft, beim Schmecken die Speise, beim Fühlen die körperliche Berührung oder die Wärmestrahlung. Entscheidend ist aber die Wahrnehmung der geistigen Seite der Dinge. Nur dadurch können wir erkennen, was sie sind.

In unserer Welt gibt es nun nicht nur Dinge, sondern auch Ereignisse, Abläufe, Handlungen, Tätigkeiten, also dynamische Vorgänge. Auch diese weisen eine materielle und eine geistige Seite auf: Bei einer Demonstration bewegen sich viele Menschen durch die Straßen. Nur an ihren Tafeln und Schriftbändern kann ich jedoch erkennen, wogegen oder wofür sie demonstrieren. Ein Lehrer erzeugt in der Klasse nicht nur Schallwellen, sondern er unterrichtet die Schüler. Eine Bewegung der Hand kann vielerlei bedeuten. So sind Ereignisse das, was sie sind, nur aufgrund ihrer geistigen Seite. Das gilt - so überraschend das sein mag - selbst für reine Naturvorgänge wie Wetterereignisse: Ich kann erkennen, was sie sind, aufgrund ihrer geistigen Seite. So erkenne ich Donner, weil ich weiß, wie Donner sich anhört und was er bedeutet.

Überlegen wir nun, wie die Dinge, die wir spontan als rein geistig ansehen würden, wie Bücher, Filme, Kunstwerke, wissenschaftliche Theorien, in unserer Welt existieren, dann bemerken wir, dass sie jeweils eine materielle Grundlage haben: Ein Buch ist auf Papier gedruckt oder findet sich als Hörbuch auf einer CD, ein Gemälde besteht auch aus diversen Materialien, Musik erklingt mit Hilfe von Schallwellen in der Luft oder ist auf einem Tonträger aufgezeichnet oder ist mit Noten auf Papier gedruckt. Wissenschaftliche Erkenntnisse sind in Medien wiedergegeben, nachdem sie ursprünglich im Kopf des jeweiligen Entdeckers vorhanden waren. Was im Computer gespeichert ist, ist geistig, hat aber eine materielle Grundlage. Derartige Beobachtungen verleiten zu der These, dass alle geistig existierenden Dinge auch materiell existieren, dass sie, um zu existieren, eine materielle Grundlage benötigen.

Um diese These zu erproben, kann man überlegen, ob es zum Beispiel Gott, Engel, Dämonen und unsterbliche Seelen gibt. Diese kann es geben und man kann sich vorstellen, dass sie dafür keiner materielle Grundlage bedürfen. Es ist nun aber so, dass ihr Vorhandensein umstritten ist und nicht gewusst werden, sondern allenfalls geglaubt werden kann. Man sollte sich aber bei philosophischen Überlegungen besser zunächst an die Dinge halten, die zweifelsfrei existieren und uns in unserem Leben ständig begegnen wie Bücher, CD´s und dergleichen.

Gehen wir also davon aus, dass die Dinge und auch die Ereignisse eine materielle und eine geistige Seite haben, weil Materie und Geist zusammen ihre Existenz begründen und sie zu dem machen, was sie sind.

Ereignisse in diesem Sinne sind auch unsere Gedanken, Wahrnehmungen und Empfindungen. Sie sind gleichzeitig Vorgänge in unserem Gehirn und haben darin ihre materielle Grundlage. Das ist nun eine Aussage von großer Bedeutung, die entsprechend umstritten ist. Die neuronalen Vorgänge im Gehirn folgen nämlich den Naturgesetzen und sind dadurch (weitgehend) determiniert. Es stellt sich die Frage, ob die mit ihnen verbundenen geistigen Vorgänge eigene Gesetzmäßigkeiten aufweisen, also gegenüber den materiellen Vorgängen autonom oder ob sie bloße Begleiterscheinungen zu diesen sind, die keine eigenständige kausale Wirksamkeit haben. Das ist aber ein großes Thema für sich.

 

 

Permalink 07.08.14    2 Kommentare »

was ist gott?

gott ist der gedanke,
der sich für den handelnden hält:
ich.

1 2 3 4 5 6 7 8 9 10 11 ... 21 >>