GEHIRN und COMPUTER

Cerebro y ordenador

(Recop.) Justo Fernández López

 

Vgl.:

Kognitive Linguistik / Gehirn / Gehirn und Sprache / Sprache und Realität / Repräsentation / Identitätstheorie / Funktionalismus

 

„Um mit Computern kommunizieren zu können, müssen nach wie vor wir ihre Sprache lernen – sie sind nicht klug genug für die unsere. Im Grunde ist es allzu leicht, Computern mehr Intelligenz zuzutrauen, als sie eigentlich verdienen.“

[Pinker, Steven: Der Sprachinstinkt. Wie der Geist die Sprache bildet. München: Knaur, 1998, S. 224]

„Ist das Konzept der Identität nicht hinderlich geworden bei der Anpassung an neue Lebenssituationen und bei der Übernahme der Aufgaben? Beim Computer lässt sich eine neue Diskette einschieben, eine neue Software eingeben, man trennt zwischen der Identität des Programms und der Hardware. Beim Menschen ist die Neueingabe mit der Umstrukturierung der Hardware verbunden. Lernend ergeben sich Umorganisationen des Gehirns, und der völlige Austausch eines Lebenshorizontes durch den anderen kann im Affekt durchaus einmal gewollt werden, ist früher oder später doch mit der Schmerzhaftigkeit störender Überlagerung von Programmen oder des Versuches der Beiseiteschiebung des Altgedächtnisses verbunden.

In der kognitionswissenschaftlich orientierten Philosophien ist ein deutliches Bemühen zu erkennen, die Trennung des Menschen in zwei Identitäten, in Programm und Körper, in eins zu fassen. So wie man auch eine Trennung in einen Tod der Persönlichkeit und einen Tod des Körpers nicht gerne hinnehmen möchte. Dennoch finden sich viele Bemühungen, den Menschen wie einen Computer von der Funktion her verstehen zu wollen und die Persönlichkeit am Code des Gehirns festzumachen. Ideen, durch Abtastung aller Nervenzellen das innere Programm eines Menschen zu entschlüsseln, sind zur Zeit deutlich unrealistisch.“

[Linke, Detlef: Einsteins Doppelgänger. Das Gehirn und sein Ich. München: C. H. Beck, 2000, S. 31f.]

Physik des Gehirns: Warum wir keine Computer sind

Wir sind keine Computer im Sinne gegenwärtiger Rechnersysteme. Hierzu sieben Punkte:

1.      Wir haben keinen Taktgeber. Dadurch ist auch Information im Sinne binärer Informationsverarbeitung nicht definiert.

2.      Wir versuchen, uns unsere Zeit selber zu geben. Dabei haben auch diese Zeitgeber-Systeme ihre Eigenzeiten. Die verschiedenen Zeiten innerhalb eines Gehirns können durch die Stirnhirnfunktion auszubalancieren versucht werden. Doch auch das geschieht nicht außerhalb einer besonderen Zeit, kann aber mit dem «Gefühl» der Zeitlosigkeit verbunden sein.

3.      Bekommt unsere «Software» einen anderen Körper, so erhält sie auch eine andere Zeit. Unsere Kohlenstoffeigenschaften geben uns ganz bestimmte Zeitcharakteristiken.

4.      Da uns eine universelle Zeit fehlt, mangelt es uns auch an einer universellen informationellen Deutung unserer Hirntätigkeit.

5.      Für die Ansteuerung eines definierten «Abarbeitungsschrittes» müssen zumeist viele andere Schritte getan werden. Dadurch prozessiert das Gehirn stets mehr als vorgesehen: ein Ursprung des «Neuen».

6.      Das Gehirn verringert seine Nervenzellzahl und gelangt dadurch zu besseren Leistungen. Beim Computer gibt es eine derartige «Kastration» nicht.

7.      Durch die Diffusion von Gasen (u.a. Stickstoffoxyd) werden im Gehirn räumliche Prinzipien der Benachbartheit wirksam. Derartiges findet sich im Computer nicht.

Die Diffusion von Gasen zur Signalverarbeitung im Nervensystem eröffnet mit ihrem kontinuierlichen Aspekt den konkreten physikalischen Raum für die Interpretationen mentaler Ereignisse. [...] Bisher musste man immer noch mit der auf einen Dualismus rekurrierenden These arbeiten, dass Kontinuitäten im Mentalen durchaus mit Diskontinuitäten im Neuronalen verbunden sein könnten. Das Phänomen der Gasdifussion öffnet nun neue Möglichkeiten der Interpretation. Das Phänomen, dass diese Diffusion geometrisch gesehen eher Kugeln und Sphäroide betrifft, muss nicht als Einschränkung für eine Isomorphie-These genommen werden, sondern kann als Bestätigung der besonderen Bedeutung einiger Archetypen gelesen werden. Gerade die Erfahrung der Kugel geht mit tief greifenden persönlichen Erfahrungen und psychischen Umwälzungen einher. Sie eignet sich in erster Linie in Krisensituationen als Ausdruck dessen, dass ich plötzlich in der Lage bin, jene Umhüllung zu erfahren, in die ich mich stets hineinimaginiere. [...] Wenn das Nervensystem in der Lage ist, eigene Aktivitäten zu detektieren (wir können uns auf die Aktivität nur einer Rückenmarkszelle beispielsweise konzentrieren), dann dürften auch die Diffusionsgradienten einer Gasdifussion in gewissen Maße vom Nervensystem nicht nur als Rechengrundlage benutzt werden, sondern auch als Gegenstand der Erfassung ins Spiel kommen können. Gerade bei größeren Emotionen und Umwälzungen, bei denen stärkere Diffusionen stattfinden, können diese als eigenes Ereignis in eine geometrische Visualisierung gebracht werden. Natürlich müssen diese Geschehnisse versprachlicht werden, und stets sucht der Mensch auch nach der Deutung solche einer Kugel. Neurophysiologisch gesehen, wäre die herausragende Stellung der Kugel-Wahrnehmung nicht einfach sekundär aufgrund der geometrischen Besonderheit und Vollkommenheit, sondern weil sie ihr Diffusionskorrelat in der neuronalen Bearbeitung hat. Die Kugel kann jedoch schnell zum Abschließen von Welten führen in dem Sinne, dass andere ausgeschlossen werden. An der Kugelwand findet sich dann eine tödliche Negation (z.B. zwischen Ich und Nicht-Ich). Gerade diese Wandaufteilung hat aber das Schicksal außer sich und ist gerade deshalb diesem unterworfen. Verfolgt man den spekulativen Gedanken weiter, dass das Nervensystem seine eigenen Gasdiffusionskugeln berechnen könnte, so liegt es nahe, dass diese Berechnungen am ehesten unvollständig sind, am ehesten nur drei Viertel der Kugel erfassen, da die in sie hineinreichenden Neuronen die Information über die Diffusion weitertragen müssen und daher z.T. einen blinden Fleck in der Kugel erstellen. Vielleicht ist dies aber die angemessene Zurückhaltung.”

[Linke, Detlef: Einsteins Doppelgänger. Das Gehirn und sein Ich. München: C. H. Beck, 2000, S. 85-87]

Gehirn und Denken

Unterdessen haben Hirnforscher vieles über die Hardware des Gehirns im großen und kleinen herausgefunden. Bis jetzt hat dieser Ansatz noch nicht viel Licht darauf geworfen, wie das Gehirn mit Begriffen umgeht, aber es gibt uns eine gewisse Vorstellung von den biologischen Mechanismen, auf denen die Manipulation des Denkens beruht. […]

Das Denken muss darauf beruhen, dass Wirklichkeit in der Hardware des Gehirns dargestellt wird. In den vorangegangenen Kapiteln haben wir formale Systeme entwickelt, die mit ihrer Symbolik Bereiche der mathematischen Wirklichkeit repräsentieren. Wie weit ist es vernünftig, solche formalen Systeme als Modelle dafür zu gebrauchen, wie das Gehirn Ideen manipulieren kann?

Wie haben im pg-System und dann in anderen komplizierteren Systemen gesehen, wie Bedeutung, in einem eingeschränkten Sinn des Worts, als Ergebnis einer Isomorphie entsteht, die typographische Symbole auf Zahlen, Operationen und Beziehungen abbildet und Ketten von typographischen Symbolen auf Aussagen. Nun haben wir im Gehirn keine typographischen Symbole, aber wir haben dafür etwas noch besseres: aktive Elemente, die Informationen speichern und weitergeben und sie von anderen aktiven Elementen empfangen können. Also haben wir aktive Symbole anstatt der passiven typographischen Symbole. Im Gehirn sind die Regeln mit den Symbolen gemischt, wohingegen die Symbole auf dem Papier statische Einheiten sind und die Regeln sich in unserem Kopf befinden.

Wichtig ist es, nicht wegen der eher starren Natur aller formalen Systeme, die wir betrachtet haben, anzunehmen, dass die Isomorphie zwischen Symbolen und Dingen der Wirklichkeit ein starres ein-eindeutiges Abbilden bedeutet, wie die Fäden, die eine Marionette und die sie führende Hand verbinden. […]

Nicht alle Beschreibungen einer Person brauchen an ein Zentralsymbol für diese Person gebunden zu sein, das ihren Namen speichert. Beschreibungen können in sich selbst erzeugt und manipuliert werden. Wir können nichtexistente Menschen erfinden, indem wir Beschreibungen von ihnen anfertigen; wir können zwei Beschreibungen miteinander verschmelzen, wenn wir merken, dass sie ein und dasselbe Wesen repräsentieren; wir können eine Beschreibung in zwei aufspalten, wenn wir erkennen, dass sie zwei Dinge und nicht eines repräsentiert usw. Der «Beschreibungskalkül» ist der Kern allen Denkens, Man nenn ihn intensional und nicht extensional, was bedeutet, dass Beschreibungen «frei schweben», ohne dass sie in einem spezifischen, bekannten Objekt verankert wären. Die Intensionalität des Denkens hängt mit seiner Flexibilität zusammen; sie gibt uns die Fähigkeit, uns hypothetische Welten vorzustellen, verschiedene Beschreibungen zu verschmelzen oder eine Beschreibung in verschiedene Stücke aufzuspalten, usw.

Nehmen wir an, eine Freundin, die sich Ihr Auto ausgeliehen hat, teilt Ihnen telefonisch mit, dass sie damit auf einer nassen Bergstraße abgerutscht, gegen eine Böschung gestoßen und dann umgestürzt und dass sie knapp dem Tode entronnen sei. In Ihrem Geist beschwören Sie eine Reihe von Bildern herauf, die immer lebhafter werden in dem Maße, indem die Freundin weitere Einzelheiten beifügt, und schließlich sehen Sie alles «im Geiste» vor sich. Und dann sagt sie Ihnen, das alles sei nur ein Aprilscherz gewesen und sie und das Auto seien in bester Verfassung. Die Erzählung und die Bilder verlieren nichts von ihrer Lebendigkeit, und die Erinnerung daran bleibt Ihnen auf lange, lange Zeit. Später einmal halten Sie die Freundin vielleicht sogar für eine schlechte Fahrerin – wegen der Stärke des ersten Eindrucks, der doch hätte ausgelöscht werden müssen, als Sie erfuhren, dass alles nicht wahr sei. Phantasie und Fakten verquicken sich in unserem Hirn sehr eng, und das kommt daher, dass das Denken die Erzeugung und Manipulation komplexer Beschreibungen hervorruft, die keineswegs an wirklichen Vorfälle oder Dinge gebunden zu sein brauchen.

Eine flexible, intensionale Darstellung der Welt – darum geht es beim Denken. Wie kann nun ein physiologisches System wie das Hirn ein solches System tragen?” [vgl. Hirn – Struktur und Funktionen]

[Hofstadter, Douglas R.: Gödel, Escher, Bach – ein Endloses Geflochtenes Band. Stuttgart: Klett-Cotta, 1986,  S. 361‑363]

„Wir wollen von jetzt an diese hypothetischen neuralen Komplexe, neuralen Module, Neuronenpakete, Neuronennetze, Multineuronen-Gebilde – man nenne sie wie man will, ob in der Form von dünnen Crêpes oder fetten Nattern, Spinnengewebs oder viehischen Gattern, Schneeflocken auch (falls wir die noch nicht hatten) – als Symbole bezeichnen. Auf eine Beschreibung eines Gehirnzustands vermittels der Symbole wurde im Dialog angespielt. Wie sähe eine solche Beschreibung aus? Was für Vorstellungen lassen sich vernünftigerweise «symbolisieren»? Was für Beziehungen hätten Symbole zueinander? Und welche Einsicht in das menschliche Bewusstsein würde dieses ganze Bild bieten?

Zu betonen ist zunächst einmal, dass Symbole entweder schlummern oder wach (aktiviert) sein können. Ein aktives Symbol ist eines, das ausgelöst worden ist, d.h. indem eine Schwellenzahl von Neuronen durch von außen kommende Reize erregt worden ist. Da ein Symbol auf viele verschiedene Arten ausgelöst werden kann, kann es sich, wenn erwacht, auf viele verschiedene Arten verhalten. Das legt nahe, ein Symbol nicht als eine feststehende, sondern als eine variable Einheit zu betrachten. Deshalb würde es nicht genügen, einen Gehirnzustand dadurch zu beschreiben, dass man sagt: «Die Symbole A, B, ..., N sind alle aktiv»; vielmehr müssten wir zusätzlich für jedes aktive Symbol eine Anzahl von Parametern liefern, die einige Aspekte des inneren Funktionierens kennzeichnet. Es ist eine interessante Frage, ob sich in jedem Symbol gewisse Stammneuronen befinden, die sich unfehlbar erregen, wenn das Symbol aktiviert worden ist. Wenn solch ein «Stamm» existiert, können wir ihn den «invariablen Stamm» des Symbols nennen. Es ist verlockend anzunehmen, dass jedes Mal, wenn man, sagen wir, an einen Wasserfall denkt, ein feststehender neuraler Ablauf sich wiederholt, ohne Zweifel in verschiedener Weise, je nach Kontext ausgeschmückt, aber mit Sicherheit stattfindend. Es ist jedoch nicht klar, ob das so sein muss.

Was tut nun ein Symbol, wenn es «erwacht» ist. Eine Beschreibung niedriger Stufe würde lauten: «Viele seiner Neuronen erregen sich». Das interessiert uns aber nicht mehr. Die Beschreibung höherer Stufe sollte jede Erwähnung von Neuronen ausmerzen und sich ausschließlich auf Symbole konzentrieren. So wäre eine Beschreibung hoher Stufe dessen, was ein Symbol aktiv macht – im Unterschied von ruhenden: «Es sendet Botschaften oder Signale, die den Zweck haben, andere Symbole wach zu machen oder deren Aktivität auszulösen». Natürlich würden diese Botschaften als Ströme von Nervenimpulsen von Neuronen getragen – aber insofern wir eine solche Ausdrucksweise vermeiden können, sollten wir es tun, weil es eine Betrachtungsweise niedrigerer Stufe darstellt, und wir doch hoffen, dass wir gänzlich auf der höheren Stufe verbleiben können. Mit anderen Worten: wir hoffen, dass man sich seine Denkprozesse gegen neurale Ereignisse versiegelt vorstellen kann, so wie das Verhalten einer Uhr gegen die Gesetze der Quantenmechanik versiegelt ist oder die Zellbiologie gegen die Gesetze der Quarks.

Was aber ist der Vorteil dieser Anaschauung höherer Stufe? Warum ist es besser zu sagen, die «Symbole A und B lösten Symbol C aus», als «die Neuronen 183 bis einschließlich 612 brachten Neuron 75 dazu, sich zu erregen»? Es ist besser, weil Symbole eben Dinge symbolisieren, Neuronen aber nicht. Symbole sind die Hardware-Realisierung von Vorstellungen. Während eine Gruppe von Neuronen, die ein anderes Neuron auslöst, mit keinen Geschehnissen der Außenwelt korrespondiert, hat die Auslösung eines Symbols durch andere Symbole eine Beziehung zu den Geschehnissen in der Außenwelt – oder in einer imaginären Welt. Symbole stehen miteinander durch die Botschaft in Verbindung, die sie hin und her schicken können – und zwar so, dass ihre Auslösemuster den großmaßstäblichen Ereignissen sehr ähnlich sind, die in der Welt oder in einer der unseren ähnlichen Welt geschehen. Im wesentlichen ergibt sich Bedeutung aus dem gleichen Grund wir im pg-System – Isomorphie. Nur ist die Isomorphie hier unendlich komplexer, subtiler, heikler, vielseitiger und intensionaler.

Übrigens genügt wahrscheinlich die Voraussetzung, dass Symbole komplizierte Botschaften hin und her befördern können, um auszuschließen, dass Neuronen selbst die Rolle von Symbole übernehmen. Da ein Neuron nur eine einzige Möglichkeit hat, Information aus sich heraus zu senden, und keine Möglichkeit, ein Signal selektiv bald in diese, bald in jene Richtung zu leiten, besitzt es ganz einfach nicht die Fähigkeit, andere Neuronen selektiv auszulösen, wie sie ein Symbol haben muss, um sich wie ein Gegenstand der wirklichen Welt zu verhalten. [...]

Was das Wesen der Symbole betrifft, stellen sich Fragen wie: Gibt es ein Symbol für den allgemeinen Begriff «Wasserfall», oder gibt es verschiedene Symbole für verschiedene spezifische Wasserfälle? Oder sind beide Alternativen möglich? Was den «Umfang» anbelangt, so könnte man fragen: Gibt es ein Symbol für eine ganze Geschichte? Oder für eine Melodie? Oder einen Scherz? Oder ist es wahrscheinlicher, dass es Symbole nur für Begriffe gibt, die grob gesprochen der Länge von Wörtern entsprechen, und dass umfangreichere Gebilde wie etwa Redewendungen oder Sätze durch die gleichzeitige oder aufeinander folgende Aktivierung verschiedener Symbole repräsentiert werden? [...] Die meisten in Sätzen ausgedrückten Gedanken setzen sich aus elementaren, quasi atomaren, Bestandteilen zusammen, die wir im allgemeinen nicht weiter analysieren. Diese haben – grob gefasst – etwa den Umfang von Worten. [...] Es sind typische elementare Pinselstriche, die wir zum Malen von Porträts von komplexeren Vorstellungen brauchen – zum Beispiel die Handlung eines Filmes, die Atmosphäre einer Stadt, das Wesen des Bewusstseins, usw. Derartige komplexe Vorstellungen sind nicht einzelne Pinselstriche. Es ist wohl vernünftig anzunehmen, dass die sprachlichen Pinselstriche auch die gedanklichen sind, und dass deshalb Symbole Begriffe von ungefähr dieser Größe repräsentieren. So wäre grob gesprochen das Symbol etwas, für das man ein Wort oder eine feststehende Wendung hat oder das man mit einem Eigennamen assoziiert. Die Repräsentation einer komplexeren Idee im Gehirn, wir ein Problem in einer Liebesaffäre, wäre eine sehr komplizierte Folge von Aktivierungen von verschiedenen Symbole durch andere Symbole.

Es gibt hinsichtlich des Denkens eine allgemein gültige Unterscheidung: die zwischen Kategorien und Individuen oder Klassen und Einzelfällen. [...] In Wirklichkeit können die meisten Symbole beide Rollen spielen, je nach dem Kontext ihrer Aktivierung.”

[Hofstadter, Douglas R.: Gödel, Escher, Bach – ein Endloses Geflochtenes Band. Stuttgart: Klett-Cotta, 1986,  S. 374‑376]

“So bleiben uns also zwei grundlegende Probleme bei der Entwirrung der Denkprozesse, wie sie sich im Gehirn abspielen. Das eine ist die Erklärung, wie die Erregung von Neuronen niedriger Stufe zu der hohen Stufe der symbolischen Aktivierungen führt. Das andere Problem ist, die auf hoher Stufe stattfindende Symbolaktivierung für sich selbst zu erklären – d.h. eine Theorie zu entwickeln, die nicht von den neuralen Geschehnissen auf niedriger Stufe spricht. Wenn dieses letztere möglich ist – und es ist eine grundlegende Annahme für alle zur Zeit über Artifizielle Intelligenz in Gang befindliche Forschung – dann kann die Intelligenz in anderen Typen von Hardware im Gehirn verwirklicht werden. Dann hat man bewiesen, dass Intelligenz eine Eigenschaft ist, die von der Hardware, in der sie ihren Sitz hat, «abgeschöpft» werden kann – oder in anderen Worten: Intelligenz ist dann eine Software-Eigenschaft. Das heißt, dass die Phänomene des Bewusstseins und der Intelligenz tatsächlich im gleichen Sinn auf hoher Stufe stehen wir die meisten anderen komplexen Naturphänomene: Sie haben ihre eigenen Gesetze hoher Stufe, die von niedrigeren Stufen abhängen und doch von diesen «abgeschöpft» werden können. Wenn es andererseits überhaupt keine Möglichkeit gibt, symbolauslösende Muster ohne die ganze Hardware von Neuronen (oder simulierten Neuronen) zu verwirklichen, wird das implizieren, dass Intelligenz ein ans Gehirn gebundene Phänomen und weit schwieriger zu entwirren ist, als eines, das seine Existenz einer Hierarchie von Gesetzen auf verschiedenen Stufen verdankt.”

[Hofstadter, Douglas R.: Gödel, Escher, Bach – ein Endloses Geflochtenes Band. Stuttgart: Klett-Cotta, 1986,  S. 383‑384]

Ist Intelligenz zufällig unerklärbar?

Es geht um folgendes: Es könnte sein, dass unsere Gehirne im Gegensatz zu Automotoren hartnäckige und ungefügige Systeme sind, die wir nicht säuberlich irgendwie zerlegen können. Im Augenblick haben wir keine Vorstellung davon, ob unser Gehirn nachgeben würde, wenn man es wiederholt in verschiedene, sauber getrennte Schichten spalten würde, von denen jede durch die darunter liegende Schicht erklärt werden kann – oder ob unser Gehirn alle solche Zerlegungsversuche vereitelt.

Aber selbst wenn wir uns selber nicht verstehen, braucht kein Gödelscher «Dreh» dahinter zu stecken. Es könnte ja einfach ein Zufall sein, dass unser Gehirn zu schwach ist, um sich selber zu verstehen. Man schaue sich die niedere Giraffe an. Ihr Gehirn ist offensichtlich weit unter dem Niveau, das für Selbsterkenntnis nötig wäre, ist aber unserem Gehirn verblüffend ähnlich. Tatsächlich arbeiten die Gehirne von Giraffen, Elefanten und Büffeln – sogar die Gehirne von Schildkröten oder unbekannten Wesen, die weit klüger sind als wir – vermutlich alle nach denselben Prinzipien. Giraffen befinden sich wohl weit unter dem Intelligenzniveau, welches nötig wäre, um zu verstehen, wie diese Prinzipien sich zur Erzeugung von Eigenschaften des Denkens zusammenfügen. Menschen sind dann vielleicht näher an der Schwelle, vielleicht gerade noch unter ihr, vielleicht darüber. Wesentlich ist, dass es keinen grundsätzlichen (d.h. Gödelschen) Grund gibt, warum diese Eigenschaften unverständlich sind; vielleicht sind sie intelligenteren Wesen vollständig klar.”

[Hofstadter, Douglas R.: Gödel, Escher, Bach – ein Endloses Geflochtenes Band. Stuttgart: Klett-Cotta, 1986,  S. 754]

Funktionalismus

Der Funktionalismus kann als Versuch gesehen werden, die brauchbaren Ideen beider Positionen – Identitätstheorie [sie: Gehirn und Sprache] und Behaviorismus – zu vereinen. Einerseits sollen mentale Zustände in das beobachtbare Verhalten eingebunden sein, andererseits sollen sie mit physikalischen Zuständen identisch sein. Der Funktionalismus identifiziert mentale Zustände nicht direkt mit physikalischen Zuständen, sondern postuliert – sozusagen als Zwischenglied – ihre Identität mit funktionalen Zuständen. Funktionale Zustände sind durch ihre kausale Rolle definiert, in der sie zu anderen funktionalen Zuständen, zu Sinneseindrücken und schließlich zu Handlungen stehen. Der Funktionalismus ist die These, «dass das Wesen unserer psychologischen Zustände auf den abstrakten kausalen Rollen beruht, die diese in einem komplexen System von inneren Zuständen spielen, die zwischen Umwelt-Inputs und den Verhaltens-Outputs vermitteln» (Churchland & Churchland 1981; 121).

Da die abstrakten funktionalen Zustände, mit denen die geistigen Zustände identifiziert werden (u.a.) durch die kausalen Beziehungen definiert sind, die sie zu Sinneseindrücken des Organismus und dessen Verhalten haben, wird der Intuition des Behaviorismus Rechnung getragen, dass dem Verhalten des Organismus in seiner Umgebung eine determinierende Rolle bei der Individuierung geistiger Zustände zukommt. Anders als der Behaviorismus geht der Funktionalismus aber davon aus, dass auch die kausale Verknüpfung der inneren Zustände untereinander berücksichtigt werden muss. Im Gegensatz zur Identitätstheorie nimmt der Funktionalismus aber nicht auf die physikalischen Eigenschaften dieser inneren Zustände Bezug, sondern auf deren abstrakte funktionale Rolle im Gesamtsystem. Dadurch befreit er sich von dem Problem der Identitätstheorie, mentale Zustandstypen mit einem bestimmten neurophysiologischen Zustand identifizieren zu müssen. [...]

Eine funktionale Analyse zur Erklärung eines komplexen Systems ist in vielen Bereichen üblich. Möchte man beispielsweise erklären, wie ein Automotor funktioniert, spricht man über das Zusammenwirken von Kolben, Zylinder, Kurbelwelle, Vergaser, Zündung, Batterie und was es da sonst noch alles gibt. All das sind zwar physikalisch beschreibbare Dinge, sie haben eine bestimmte Ausdehnung, eine Masse, bestehen aus einem bestimmten Material und sind oft aus anderen Teilen aufgebaut; bei der Erklärung der Funktionsweise eines Automotors interessieren diese physikalischen Charakterisierungen nicht. Was zählt, ist nur ihre funktionale Rolle im Gesamtsystem, d.h. welche Leistungen sie erbringen und wie sie mit anderen Teilen des Systems interagieren, um das zu erklärende Verhalten hervorzubringen.

Allerdings genügt es noch nicht zu sagen, dass mentale Zustände eine funktionale Rolle haben, die von physikalischen Zuständen erfüllt wird. Denn damit wird nur behauptet, dass für jeden mentalen Zustand einen physikalischen Zustand gibt, mit dem er identisch ist (Token-Token-Identität), und dass die mentalen Zustände in irgendwelchen kausalen Beziehung miteinander stehen. Dies mag genügen, wenn es darum geht, allgemein zu sagen, was mentale Zustände sind. Will man aber eine Aussage darüber treffen, wie sich die kausalen Rollen der einzelnen Zustände unterscheiden, bzw. welche Rolle ein bestimmter Zustand im Gesamtsystem einnimmt, muss man etwas über den (funktionalen) Aufbau des Systems aussagen.

Natürlich können nicht die Details der Verknüpfung einzelner mentaler Zustände angegeben werden. Es sollte aber versucht werden, wenigsten die allgemeine Struktur des funktionalen Aufbaus anzugeben. Dazu bedient man sich der Analogie zu Computern: Es wird angenommen, dass der funktionale Aufbau des Geistes in etwas dem funktionalen Aufbau von Computern (als abstrakten Maschinen) entspricht. Das hat wohl vor allem drei Gründe:

Erstens werden sowohl geistige Zustände als auch innere Zustände eines Computers inhaltlich charakterisiert; die Zustände beider Systeme beziehen sich auf Dinge in der Welt. Insofern kann sowohl der menschliche Gehirn als auch der Computer als informationsverarbeitendes System verstanden werden. Zweitens sind Computer nicht einfach nur sehr komplexe Maschinen, sondern sie sind universelle Maschinen. Universelle Maschinen können prinzipiell alle berechenbaren Funktionen auf mechanischen Weg berechnen und sind daher (prinzipiell) in der Lage, alle mechanischen Prozesse zu simulieren. Wenn unser Geist tatsächlich auf der funktionalen Organisation der Gehirnzustände beruht, müsste er mittels eines Computer zumindest simuliert werden können. Drittens zeigen bereits heutige Computer Leistungen, die früher dem menschlichen Geist vorbehalten waren und für die eine gewisse Intelligenz als Voraussetzung erachtet wurde. Viele halten aus diesem Grund die Hypothese für plausibel, dass sich Computer bauen lassen, die zumindest genauso intelligent sind wie Menschen. Aber auch wenn der menschliche Geist nicht dem funktionalen Aufbau eines Computers entspricht, kann ein Vergleich dennoch aufschlussreich für das Verständnis des menschlichen Geistes sein.

Der Vergleich von Computern mit dem menschlichen Geist ruft bei manchen eine reflexartige Ablehnung hervor. Den Menschen, Krone der Schöpfung, auf eine Maschine zu reduzieren, grenz für sie an Blasphemie. Diese Reaktion beruht auf einer Reihe zum Teil grober Missverständnisse. Erstens ist ein Vergleich keine Identifikation. Bei einem Vergleich werden zwei oder mehrere Dinge hinsichtlich einer bestimmten Eigenschaft verglichen. [...] Wittgenstein und Hitler haben eine ganze Reihe von Dingen gemeinsam: beide gehörten zur Familie der Säugetiere, waren männlichen Geschlechts, wurden im April 1889 in Österreich geboren, gingen in dieselbe Schule usw. Damit wird nichts über sonstige Gemeinsamkeiten ausgesagt. Keiner dieser Vergleiche identifiziert Wittgenstein in irgendeiner Weise mit Hitler. [...]

Was Computer besonders auszeichnet, und was sie nach einer weitgeteilten Auffassung mit dem menschlichen Gehirn gemeinsam haben, ist, dass beide Information verarbeiten. Computer und Gehirn werden also hinsichtlich ihrer Fähigkeit zur Informationsverarbeitung verglichen. Die Grundannahme der Kognitionswissenschaft ist es, dass sowohl das menschliche Gehirn als auch Computer zur Klasse der Informationsverarbeitenden Systeme gehören. [...]

Dieses Paradigma vom menschlichen Gehirn als informationsverarbeitenden System liegt der gesamten Kognitionswissenschaft zugrunde:

§         Computer und Gehirn sind komplexe informationsverarbeitende Systeme. Von beiden wird Information aufgenommen (Input), gespeichert, manipuliert, wieder abgerufen und schließlich in beobachtbares Verhalten (Output) umgesetzt.

§         Kognitive Prozesse setzen das Vorhandensein eines informationsverarbeitenden System voraus.

Damit ist natürlich noch nicht viel gewonnen. Es stellt sich z. B. die Frage, worin «Informationsverarbeitung» genau besteht, oder wie die Informationsverarbeitung des Gehirns funktioniert (also die Frage nach den hinreichenden Bedingungen für Kognition). Eine offene Frage ist auch, welche Rolle unsere alltagspsychologischen Begriffe in einer Informationsverarbeitungs-Theorie des Geistes spielen, bzw. ob sie nicht ganz zu eliminieren sind usw. Die Computer-Metapher gibt daher noch keine Antwort auf die Frage nach dem Verhältnis von Körper und Geist, sondern umreißt eine mögliche Forschungsstrategie.”

[Helm, Gerhard: Symbolische und konnektionistische Modelle der menschlichen Informationsverarbeitung. Eine kritische Gegenüberstellung. Berlin u. a.: Springer-Verlag, 1991, S. 10-14]

„Die authentische Verarbeitung natürlicher Sprache gehört zum heiligen Gral der Künstliche-Intelligenz-Forschung, vor allem seit der britische Mathematiker und Intelligenztest-Erfinder Alan Turing seine früheren Vorstellung von Intelligenz erweiterte: Wenn ein Mensch nicht mehr zwischen Mensch und Maschine unterscheiden kann, während er mit einer kommuniziert, dann ist diese Maschine als intelligent zu bezeichnen.

Doch von Turing stammt auch der Satz: «Der beste Weg, seinen Intelligenztest optimal zu bestehen, ist eine Maschine zu entwickeln, die lernfähig ist ».“ [http://science.orf.at/science/news/7022]

“El teorema de Church constituye otra de las limitaciones del formalismo; mas las limitaciones de los sistemas formales no lo son de la capacidad de la razón humana; esto es lo que Gödel quiere dejar bien sentado al criticar la idea de Turing de que la mente humana es equivalente a una máquina:

«Turing, en Proc. Math. Soc., 42 (1937), p. 250, ofrece una argumentación que se supone muestra que los procedimientos mentales no pueden llegar más lejos que los procedimientos mecánicos. Sin embargo, esta argumentación es inconcluyente, pues depende de la suposición de que una mente finita sólo es susceptible de tener un número finito de estados distinguibles. De lo que Turing no se da cuenta es del hecho de que la mente, en su uso, no es estática, sino que está en constante desarrollo». (Kurt Gödel: Obras completas. Madrid: Alianza, 1981, p. 18, nota)”

[Velarde Lombraña, Julián: Historia de la lógica. Oviedo: Servicio de Public. de la Universidad. O. J., p. 407]