Intelligente Information und Realität – Beitrag zur Blogparade: Wie prägen intelligente Informationen unsere Zukunft

Artificial-intelligence-155161 1280

Pixabay [CC0]

Beitrag zur Blogparade „Wie prägen Intelligente Informationen unsere Zukunft“ von Intelligente Informationen

Am 28. Oktober um 7:30 a.m. ging bei der  Indonesian National Search and Rescue Agency der Notruf ein, dass Lion Air Flug 610 wenige Kilometer von einer Ölplattform ins Meer gestürzt sei. Die Arbeiter auf der Insel berichteten, dass die Maschine mit  der Nase nach unten ins Meer crashte. Ein ähnlicher Unfall ereignete sich nun vor kurzem in Äthiopien. Die Frage an den Hersteller Boeing ist, ob die erarbeiteten Sicherheitsstandard ausreichend gewesen sind. Boeing weist erwartungsgemäß die Schuld von sich. Piloten seien über die Umstände des neuen Systems informiert gewesen:

“ Einige Tage nach dem Unglück in Indonesien informierte der Hersteller Boeing Fluggesellschaften, die bereits 737-Max-8-Modelle im Einsatz hatten, über mögliche Schwierigkeiten mit den Maschinen. So könnten mitunter fehlerhafte Informationen eines Sensors dazu führen, dass die Flugzeuge ihre Nase automatisch absenken. Wie die Washington Post berichtete, wurde Piloten und Pilotinnen darin der Umgang mit den Sensoren erläutert. Außerdem soll dieses Problem nur bei manueller Steuerung auftreten. […] Einige Piloten waren der Meinung, dass Boeing sie nicht ausreichend über das System und die mit ihm verbundenen Komplikationen informiert habe. (ZEIT)

Gut, jemanden zu informieren und jemanden tatsächlich zu informieren sind zwei verschiedene Angelegenheiten. Wer zum Beispiel liest alle Sicherheitsanweisungen zu neuer Software und ist bei allen Feinheiten gleichsam sorgfältig und konzentriert?

Stattdessen können wir die Frage stellen: Hätten intelligente Informationen im Falle eines Unglücks die Piloten schnell über die entsprechende Abschaltung des Sensors oder der gekoppelten Systeme informieren können? Intelligente Information würde in einem solchen Fall auf gezielte Beschreibung der Umstände, die richtige Lösung vorschlagen. Stattdessen sind Piloten in Notfällen darauf angewiesen, ein Handbuch zu konsultieren. Sie informieren sich über Notfallprozeduren über ein langsames, analoges Medium. Könnte intelligente Information, in diesem Falle schnell und zuverlässig entsprechende Handlungsoptionen erklären und könnten derlei Unfälle in Zukunft verhindert werden? Die Forschung hofft, diese Frage mit einem „Ja“ beantworten zu können.

Was sind intelligente Informationen?

Intelligente Informationen zielen darauf, Wissen durch Zusammenhänge zu erzeugen. So heißt es: „Erst die Struktur verbindet Informationen, erhöht sie zum Inhalt“ (Censhare). Die Aufgabe in der Industrie gestaltet sich dann nach Professor Dr. Michael Schaffner folgendermaßen: Technische Redakteure arbeiten in „Smart Factories“ und übermitteln Informationen nicht mehr in Textform, sondern „ontologisch“. Das bedeutet die übermittelten Informationen würden nicht mehr in ein Handbuch übersetzt, sondern ein informativer Kernbestand aus Metadaten wird angelegt, aus dem künstliche Intelligenz dann schnell Anleitungen für Arbeiter aber idealerweise für andere Roboter erzeugen kann. Jede Anweisung aus einem solchen, idealen System wäre spezifisch auf die gegebene Situation anwendbar. So muss nicht mehr sofort eine komplette und umfassende Anleitung geschrieben und verstanden werden. Der Arbeiter muss sich nicht mehr durch ein 500 Seiten starkes Manual wühlen. Die Hoffnung ist also, dass sich die Anleitung von Mitarbeitern mit intelligenter Information effizienter gestaltet, der Betrieb schneller funktioniert.

Das grundsätzliche Problem besteht für Schaffner nun darin:

Über welche Sensorwerte, Statusmeldungen, Assistenzdaten et cetera kann eine Situation eindeutig identifiziert werden? Wie lassen sich die Beziehungen zu allen kontext-relevanten Ressourcen – sprich: Ersatzteile, Werkzeuge, Techniker, verknüpfte Komponenten und so weiter – eindeutig beschreiben?“ 

Hinter dieser Fragestellung verbirgt sich ein komplexeres Problem, nämlich die Frage, wie wir die relevanten Gemeinsamkeiten von Daten in bestimmten Kontexten identifizieren. In der Regel wird eine solche Flexibilität als Intelligenz bezeichnet. Sie setzt voraus, dass wir etwas als etwas in einem Ganzheitszusammenhang konstruieren können.  Sicherheitstechnik muss dabei intelligent sein. Denn Sicherheit bedeutet nicht nur auf bereits bekanntes, sondern immer auch unvorhersehbare Situationen reagieren zu können. Es ist daher sinnvoll zu fragen, was eigentlich die ontologische Struktur von solchen intelligenten Information ist.

Zur ontologischen Struktur von intelligenten Informationen

Die folgenden Gedanken befassen sich mit der tieferen Geschichte der gegenwärtigen, pragmatischen Logik, auf der zum Beispiel Ideen von neuronalen Netzwerken basieren. Es geht hierbei darum, grundsätzliche Probleme bei der Erzeugung von intelligenten Informationen zu identifizieren.

Die Grundlage für intelligente Informationen entstand bereits in Sellars‘ semantischen Analysen der 60er Jahre. Als Alternative zu dem rohen Empirismus der analytischen Sprachphilosophie schlug Sellars das Modell der Aussagenfähigkeit vor. Es ging darum, dass wir nicht einfach nur Sinnesreize wahrnehmen, sondern dass wir sie immer in einem logischen Zusammenhang konstruieren müssen. In anderen Worten: Etwas kann nur Bedeutung haben, weil es in Zusammenhängen steht. In Science and Metaphysics kommt diese zentrale Idee zum Ausdruck:

“for a proposition to be true is for it to be assertible, where this means […] correctly assertible […] that is, in accordance with the relevant semantical rules, and on the basis of such additional, though unspecified, information as these rules may require […]. ‘True’, then, means semantically assertible (‘S-assertible’) and the varieties of truth correspond to the relevant varieties of semantical rule” (Sellars 1968 §26, 101).[1]

Semantische Aussagenfähigkeit bedeutet, dass Wahrheit an grammatische Regeln gebunden ist, die ein semantisches Gerüst strukturieren.  Wahrheit ist daher nur möglich, wenn wir bestimmten Ausdrucksregeln folgen, die jedoch nicht immer spezifiziert sind. Wahrheit ist daher nicht die adequate Repräsentation von Fakten durch Worte, sondern betrifft die Einbettung des Gesagten in sprachliche und praktische Bezüge. Sprechen wir in diesem Sinne von intelligenten Informationen, so geht es darum, Informationen auf praktische Umstände beziehen zu können. Es geht nicht darum Fakten zu repräsentieren. Repräsentation würde nur vereinzelte Informationen erzeugen, die nicht flexibel eingesetzt werden können und damit für die direkte Kommunikation nutzlos wären. Es geht darum Informationen zu generieren, die an Handlungskontexte angepasst werden können.

Sellars gibt sich nun nicht mit dieser losen, pragmatischen Definition zufrieden, sondern möchte die semantische Struktur von Aussagenfähigkeit formalisieren. Nach Sellars ist ‚Regen‘ zum Beispiel nicht einfach nur ein Fakt, wie zum Beispiel Wasser, das vom Himmel fällt. Stattdessen verstehen wir ‚Regen‘ vielmehr in seiner semantischen Rolle, die das Wort in einem bestimmten Netz von Beziehungen spielt. Wenn wir so zum Beispiel sagen „Wenn es regnet, wird die Straße naß“, so verknüpfen wir ’naß‘ und ‚Regen‘. Durch logische Verknüpfung lädt sich die Sprache auf. Wir können weiter ausführen, dass ’naß‘ das Gegenteil eines Zustandes der Straße ist. Wir könnten die Straße daher ’nicht-nass‘, das heißt ‚trocken‘ nennen. Sellars meint nun, dass Bedeutung eben nicht auf der Basis von Sinneseindrücken erzeugt wird, sondern dadurch, dass wir mit unserer Sprache ein semantisches Netz über die pragmatische Realität unseres sozialen Umgangs mit Welt werfen. In anderen Worten, wir verstehen, unabhängig davon, dass es ein Sinnesfaktum ist. ‚Rot‘ und ‚Grün‘ existieren daher für uns nicht einfach als Sinneseindrücke. Sie sind aufeinander bezogen als Farben. Farben wiederum spielen eine Rolle in Signalen, Ästhetik, Kochen, Mode, etc. „Laut“ und „störend“ sind aufeinander bezogen als Geräusche. Geräusche und Farben können wiederum als Sinneswahrnehmenungen charakterisiert werden und somit kann ein Bündel an Informationen in viele andere Netze eingeflochten werden (Kolb 1978, 386).[2]

Spielen wir obige Situationen ein paar Jahre, entstehen Milliarden an Verknüpfungen, die letztlich unser sprachliches Netz gestalten. Für die klassische Informatik ist dieses Modell womöglich zu komplex, da zu viele Verknüpfungen erzeugt werden müssen. Die Frage ist, ob wir solche Netze effizient in neuronalen Netzen emulieren können. Es kommt hierbei darauf an, welche Metainformationen wir zuverlässig über Informationen erzeugen können, so dass sie mit allen anderen Netzen kompatibel werden. Wie aber erzeugen wir die passenden Metainformationen und nicht nur irgendwelche Metainformationen?

Praktische Probleme

Intelligente Informationen basieren auf der Idee bestimmte Daten durch Metadaten in anderen Systemen verfügbar zu machen. Leider aber ist die Metadatenerzeugung nicht so einfach, wie es sich anhört. Eine Freundin von mir arbeitete zu diesem Thema bei Google als Ingenieurin. Für Google ist es jedoch ein Problem, Produkte entsprechend genau für eine Suchplattform zu klassifizieren, so dass sie letztlich für den Kunden schnell auffindbar sind. Ihr Team stieß immer wieder auf das Problem, dass irrelevante Metadaten genutzt wurden. Zum Beispiel klassifizierte der Algorithmus Festplatten nach Gewicht, was für den Käufer zumeist leider irrelevant ist. Gerade bei sogenannten Open-World-Problemen konnte daher nicht einfach machine-learning eingesetzt werden. Es war für sie daher ein grobes Schlagwort.

Googles Ziel ist es nicht, Metadaten händisch zu erstellen. Dennoch ist diese Methode ein verwendetes Mittel. Aus diesen Gründen suchen zum Beispiel Modefirmen Modegurus, die ihnen ihre Produkte kostengünstig kategorisieren, diese mit Metadaten ausstatten. Ein Freund von mir baute so einst ein Unternehmen auf, das selbiges mit Musik tun sollte. Er stellte dafür Experten an, die Musik kategorisierten. Sein Unternehmen wurde jedoch bald obsolet, da Firmen wie Spotify dann eine automatisierte Datenanalyse fanden (ich habe keine Ahnung, wie das genau funktioniert).

Der heilige Gral der intelligenten Information ist daher ein System, das Informationen über Informationen so gewinnen kann, dass die Informationen in allen praktischen Situationen verwendbar sind. Die redaktionelle Erarbeitung sollte demnach irgendwann der Vergangenheit angehören.  Die Zukunft liegt womöglich in der maschinengesteuerten Erzeugung von relevanten Metadaten, wobei wir diese Metadaten nicht einmal mehr verstehen werden.

Soweit sind wir aber noch nicht, weswegen Schaffner schreibt:

„Darüber hinaus gehört zur technischen Kommunikation 4.0, dass das intuitive und das Erfahrungswissen der Techniker, also das intrinsische Wissen, in die semantischen Modelle übertragen und „lebendig“ gehalten wird. So erfordert der Anspruch an das „prozedurale Wissen“, dass das System selbstständig Wissen aufbaut und beispielsweise – wie der Mensch – aus Beispielen lernen kann. Das nennt man „Deep Learning“. (http://www.fom-blog.de/2018/12/arbeitswelten-der-zukunft-5-antworten-aus-der-innovationsforschung/)

Ob dieses Deep Learning ohne weiteres auf Open-World-Probleme angewendet werden kann, ist unklar. Die Erfolge bei Computerspielen beruhen zumeist darauf, dass der Computer Spiele millionenfach trainieren kann. Menschen haben daher bei Open-World-Problemen noch den Vorteil, dass oftmals nur wenige Beispiele genügen, um eine Kategorisierung zuverlässig zu erzeugen. Hinzu kommt, Spiele haben begrenzte Regeln, die Welt aber hat unverständliche Regeln. Ausschließen kann man aber plötzliche Erfolge nicht. Das Spiel Go galt vor wenigen Jahren noch als unknackbar. 40 Jahre sollte es mindestens noch dauern. Plötzlich aber stand Googles AlphaGo auf der Matte.

Gute semantische Netze zu erzeugen, kostet Datenmengen und bedarf des Deep-Learnings. Der Aufwand ist für gegenwärtige Computer wahrscheinlich noch zu hoch. Es wird also dann vor allem darum gehen, die angestrebten, semantischen Netze so effizient wie möglich zu erstellen. Das semantische Netz muss daher so grob wie möglich sein, um Energie zu sparen und so eng wie nötig, um praxisbezogen reagieren zu können.

Größere Probleme

Interessanter ist für mich, dass bei intelligenten Informationen der Anspruch, externe Realität abzubilden, so gut wie keine Rolle spielt. Stattdessen geht es um die Funktionabilität eines semantischen Netzes.  Sellars Ansatz stellte damals einen Durchbruch dar und bereitete Pittsburghs führende Rolle in der heutigen Philosophie vor. Auch die Idee der neuronalen Netzwerke entstand damals schon; wegen mangelnder Rechenleistung und Daten konnte diese jedoch lange Zeit nicht umgesetzt werden. Einige Computerwissenschaftler behaupteten bis vor etwa 10 Jahren noch, dass neuronale Netzwerke niemals sinnvoll eingesetzt werden können. Nunja, wir spekulieren alle über die Zukunft.

Die Kritik an Sellars‘ System formulierte später erst John McDowell. Das Problem der semantischen Aussagenfähigkeit laufe auf folgendes Problem zu: Verschiedene koheränte Netze bieten keine Möglichkeit, sie in ihrem Wert voneinander zu unterscheiden. Es kann viele ähnliche semantische Netze geben, die innerhalb koheränt sind, aber äußerlich nicht aufeinander bezogen werden können. Rockmore beschreibt dies so:

“The space of reasons relies on coherence, or the interrelation of concepts in a conceptual framework. Yet since the coherence in question cannot rely in any way at all for justification on the given […], it is an instance of what McDowell, who is otherwise sympathetic to Sellars, calls “unconstrained coherentism” […A] theory can be coherent but false. Many individuals in mental institutions have coherent worldviews” (Rockmore 2012).[4]

Viele Individuen mit psychischen Erkrankungen hätten koheränte Sichtweisen auf die Welt, würden aber nicht mit unserer Weltsicht übereinstimmen. Das Problem verschiedener koheränter Netzwerke mag für die gegenwärtige, praktische Situation irrelevant sein;  spekulieren wir aber tatsächlich über eine sehr ferne Zukunft der intelligenten Informationen, so müssen wir uns fragen, wie sind alle Informationen aufeinander bezogen. Wie löst man also das Problem des „friktionslosen Koheräntismus“, wenn man keinen Zugriff hat auf die EINE Realität?

Der Koheräntismus von intelligenten Informationen führt zur Kreation verschiedener Weltmodelle. Informationen über Gegenstände in einer virtuellen Realität mögen vollkommen andere sein als in einem anderen virtuellen Bezugssystem. Ich stelle mir diesbezüglich zwei Computerspiele vor, in denen Gegenstände völlig unterschiedliche Bedeutungen haben können.

Warum aber greifen wir nicht einfach auf DIE Realität zurück? Nun, was wir als Menschen haben, sind Erfahrungen. Erfahrungen sind aber immer nur ein Teilausschnitt der Realität. Das bedeutet, wir wissen nicht, inwiefern diese Erfahrungen die Realität tatsächlich zuverlässig abbilden. Das selbe Problem entsteht auch bei der Generierung von semantischen Netzen. Sie basieren auf Erfahrungswissen und sind nicht absolut. Wir könnten nun sagen: Gut benutzen wir eben Sinnesdaten, wie Raum-Zeit-Koordinaten. Da Sinnesdaten selbst aber keine Bedeutung haben, wenn sie nicht in einem pragmatischen Zusammenhang stehen, sind diese Netze womöglich nutzlos.

Die Konstruktion eines finalen Bezugssystem erscheint mir daher unmöglich. Der Ansatz der intelligenten Information bezieht sich ja eben nicht auf Sinnesdaten, sondern auf Relationen. Relationen aber sind das Resultat von Perspektiven und nicht das Resultat eines eindeutigen Zugriffs auf Realität.

Dieses theoretische Problem wird oftmals als trivialiert, weil es im Moment in praktischen Zusammenhängen kaum eine Rolle spielt. Metadaten werden durch Zielnutzeranalyse klassifiziert, erhoben und entsprechend verwertbar gemacht.

Spielen wir aber fernere Zukunftsszenarien durch. Nehmen wir an, wir kommunizieren in einer fernen Zukunft mit Alexa über den politischen Konflikt zu Mondschürfrechten zwischen den Vereinigten Europäisch-Afrikanischen Staaten und der Asiatisch-Amerikanischen Union. Alexa, eine gute elektronische Freundin, versorgt uns nun mit Informationen, derer wir bedürfen, um unser Weltbild weiter auszubauen. Sie erzeugt dabei ein koheräntes Weltmodell, um mit uns zu kommunizieren. „Die Amerikaner, die wollen doch nur Öl und schieben dabei die Sicherung des Raumfahrtfriedens vor. Wir Europäer aber, auch wenn der Merkelroboter sie regiert, haben wenigstens noch europäische Werte.“ Das Problem ist: Unser Weltmodel kann koheränt sein, ebenso koheränt wie das Weltmodell der Asiatisch-Amerikanischen Union, die sich natürlich nach andernen Perspektiven bestimmen. Wie werden also Informationen in politischen Metadaten verankert? Wie konstruiert Alexa Recht und Ethik, wenn Recht und Ethik keine bestimmbaren Konstanten in einer Realität sind?

Da nun nicht Sinnesdaten die Grundlage unserer Wissenssysteme bilden, sondern Logik, semantische Regeln, die wir definieren, und Erfahrungswissen sind unsere Systeme bereits metaphyisch aufgeladen und relativ zu ihrer Entstehung. Das heißt, eine Letztbegründung der Systeme können wir aus wissenschaftstheoretischen Gründen einfach nicht leisten. Ideologie lässt sich nicht einfach auflösen.

Wir können diese Idee weiterspinnen: Können wir eine Realität erzeugen, die allen Lebensformen gerecht wird? Eine Lebenswelt, ein intelligenter Staat, der alle Interessen vereint? Mit dem Vormarsch von globalen Bürgern in virtuelle Biotope als Lebenswelten verkompliziert sich der Zugriff auf eine gemeinsame Lebensgrundlage. Gruppen von Individuen bilden sich ihre Sphären und schmücken sie mit intelligenten Informationen aus. Sie bauen eine kommunikativ ideal abgeschottete Lebenswelt. Man merkt das bereits bei Facebook und Youtube. Die Videos, die ich beispielsweise angezeigt bekomme, spielen nicht mehr in einer geteilten Welt, sondern finden innerhalb meiner Aufmerksamkeit und meiner Interessen statt. Im Moment lebe ich in einer Welt aus Schlafdecken, Fitnessempfehlungen, Schachspielern und Philosophen. Im Gegensatz habe ich keine Ahnung von… ja von was eigentlich? Aus Forschungsinteressen habe ich bei Facebook verschiedene Verschwörungsseiten abonniert. Die Weltsicht der Flatearthers ist dabei erschreckend, aber keineswegs so dumm, wie in der Regel angenommen. Dort tummeln sich Ingenieure, intelligente Leute, die Informationen in ein passendes Weltbild einbetten, das deutlich rechts und religiös ist. Für einen Normalsterblichen, der von Physik wenig Ahnung hat, ist es schon eine Hürde, Bullshit zu widerlegen und bekanntlich gilt ja: Es dauert 10 mal länger Bullshit zu widerlegen als zu erfinden.

Mit zunehmender Kommunikation besteht die Gefahr der Entstehung von semantischen Blasen. Semantische Blasen sind koheränt in Bezug auf sich selbst, aber inkompatibel mit anderen Sphären der Welt. Einen Vorgeschmack bekommen wir in Bezug auf diverse Strömungen: Impfgegner, Verschwörungstheoretiker, Chemtrails, Rassenunterdrückung, Feminismus, Incels, Rechtsextremismus, Linksextremismus etc.. Zwar ist zum Beispiel die Rassenunterdrückung in den USA immer noch problematisch, aber sie ist wesentlich subtiler als in den „intelligenten“ Facebook-Diskussionen dargestellt. Und das intelligente Informationen Einfluss auf Wahlen haben können, sollte daraus auch ableitbar sein. Wir bilden dabei keine Realitäten, sondern verstärken die Realitätsbildung. Ganz im Sinne Luhmanns ist es vor allem Kommunikation, die kommuniziert und Kommunikation bildet Welt. Meine These ist daher: Intelligente Information wird diese Weltbildung verschärfen. Der Dialog zwischen Nutzer und Informationen wird Meinungen polarisieren. Es erscheint fast so als würde Kommunikation zur Polarisierung führen, wie auch kürzlich gezeigt wurde, dass Dialog in digitalen Plattformen Gräben verschärft.

These: Da intelligente Information auf die spezifischen Weltanfragen ihrer Nutzer reagiert, wird sie deren Lebensweltinterpretation radikalisieren. Diese Meinungscluster erzeugen reale Gemeinschaften, die auf Gesellschaften zurückwirken. Es ist daher abzusehen, dass wir mit intelligenten Informationen in virtuellen Blasen leben werden können. Wir bauen dabei vielleicht ein Magicverse, eine virtuelle abgeschottete, koheränte Realität, die das plumpe Seinsgerüst mit geformten Illusionen überlagert und unsere Lebenswelt so strukturiert, als wäre alles in Ordnung. Dabei geht es nicht nur darum, dass wir uns mit Verschwörungstheorien aussetzen. Es geht darum, dass wir mit intelligenter Information den Zugang zur gemeinsamen Wirklichkeit verlieren können. Unsere gesamte Lebenswelt kann eine andere sein. Die Frage ist daher, auf welche Realität wir als Weltgemeinschaft bezogen bleiben wollen. Für uns als Individuen wird unser koheräntes Weltbild genügen und intelligentes Leben gibt es auch unter den Flat-Earthers. Ich verweise nur darauf, dass ein Freund in Pittsburgh führender Krebsforscher ist und zugleich glaubt die Welt, sei nur 6000 Jahre alt.

Nun gut, das sind Spekulationen. Im Moment geht es darum, intelligente Informationen in der Industrie überhaupt zu installieren. Ich möchte dennoch auf die ethischen Bedenken von Professor Schaffner verweisen:

Bedenken kommen immer dann hoch, wenn im Zuge von künstlicher Intelligenz und selbstlernenden Systemen die Entwickler bei moralisch-ethischen Fragen auf die Geisteswissenschaften verweisen – nach dem Motto: „Das haben die zu lösen“. Denn wenn der Mensch die Hoheit über die Entscheidung verliert und bei ethischen Konflikten – denken Sie an autonomes Fahren, autonome Kriegsroboter und Kriegsdrohnen – ein „irgendwie programmierter“ Algorithmus entscheidet, dann empfinde ich das als besorgniserregend. Hier müssen legislativ dringend Rahmen gesetzt und den Software-Entwicklern moralische Kompetenz implantiert werden. http://www.fom-blog.de/2018/12/arbeitswelten-der-zukunft-5-antworten-aus-der-innovationsforschung/

Ich glaube, das ethische Problem besteht nicht darin, von außen Gesetze zu erlassen, die Technik regulieren, sondern ich glaube, es ist ein intrinsisches Problem unserer Lebensweise sich nicht auf eine Realität beziehen zu können, das nun mehr und mehr in Technik zum Ausdruck kommt.

Wenn euch die Thematik mehr interessiert, könnt ihr die Blogparade verfolgen, wo ja dann eine Auswahl an Artikeln kommtentiert wird.

Wenn ihr keinen Artikel von dieser Seite verpassen wollt, dann abonniert mich per Email.

Email-Newsletter von Zukunft-Erde-Mensch

Bitte, zur Unterstützung die Fanpage oder den Beitrag liken.

QUELLEN:

[1] Sellars, Wilfrid. Science and Metaphysics – Variations on Kantian Themes. New York: Humanities Press, 1968.

[2] Kolb, David. “Sellars and the Measure of All Things.” Philosophical Studies: An International Journal for Philosophy in the Analytic Tradition 34 (4), 1978: 381-400. Accessed on November 24, 2017. http://www.jstor.org/stable/4319263.

[3] Levine, Steven. “The Place of Picturing in Sellars’ Synoptic Vision.” The Philosophical Forum 38 (4), 2007: 247-269. Accessed November 23, 2017. http://onlinelibrary.wiley.com/doi/10.1111/j.1467-9191.2007.00266.x/full. I used the draft provided by Levine from Academia.edu https://www.academia.edu/3304708/Sellars_on_Picturing.

[4] Rockmore, Tom. “The Pittsburgh School, The Given and Knowledge.” Social Epistemology Review and Reply Collective 2 (1), 2012: 29-38. Accessed November 11, 2017. http://wp.me/p1Bfg0-A.

Dr. Norman Schultz
Pittsburgh

 

0Shares
Dieser Beitrag wurde unter Allgemein veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

11 − zwei =