Donnerstag, 9. November 2017

Es ist ein Glück, dass man nicht alles weiß.

aus derStandard.at, 2. November 2017, 07:00

"Sollten uns wohlfühlen, nicht alles zu wissen"  
Es wäre gefährlich, Forschung stark vereinfacht zu kommunizieren, findet US-Neurowissenschafter Buonomano
 
Interview

Wien – Das menschliche Gehirn ist bei weitem nicht perfekt – ein Resultat aus der Art, wie es gebaut ist, sagt Dean Buonomano. Der Professor für Neurowissenschaften an der University of California in Los Angeles bezeichnet die Macken, mit denen wir folglich zu kämpfen haben, als "Brain Bugs": Programmfehler im Hirn. Selbst bei der Wahrnehmung von Zeit, die vergeht, könnte es sich um einen Fehler handeln. Eine aktuelle Auffassung in Physik und Zeitphilosophie suggeriert, dass der Zeitfluss eine Illusion ist. Buonomano, der Bücher zu diesen Themen verfasst hat, sprach kürzlich im Wiener Volkstheater bei der Veranstaltung TEDx Vienna.

STANDARD: Der Medizin-Nobelpreis ging dieses Jahr an Wissenschafter, die den Genabschnitt erforschten, welcher für den circadianen Rhythmus essenziell ist. Diese biologische Uhr verrät uns vereinfacht gesagt die Tageszeit. Besitzt unser Gehirn mehrere solcher Systeme zur Zeitwahrnehmung?

Buonomano: Wir wissen heute, dass unser Gehirn nicht über eine einzelne, zentrale Uhr verfügt. Das funktioniert anders als etwa analoge Uhren an der Wand oder jene in unseren Handys, die Zeitangaben von Millisekunden bis hin zu Jahren machen können. Das Gehirn hat stattdessen diverse Uhren, die auf unterschiedliche Intervalle und Aufgaben spezialisiert sind. Die circadiane Uhr besitzt gewissermaßen keinen Sekundenzeiger, und solche, die für musikalisches Zeitgefühl wichtig sind, haben keinen Stundenzeiger.

STANDARD: Ihr zweites Buch, das in diesem Jahr erschienen ist, trägt den Titel "The Time Machine". Inwiefern kann man das Gehirn als Zeitmaschine betrachten?

Buonomano: Eine der einzigartigen Eigenschaften des Menschen ist, dass wir über die Zukunft nachdenken und Pläne machen können. Das nennt man mentale Zeitreise. Außerdem ermöglicht uns das Gehirn, Informationen über die Vergangenheit – Erinnerungen – zu speichern. Zuletzt vermittelt es uns auch das Gefühl, dass Zeit vergeht. Wir haben eine bewusste Wahrnehmung des Zeitflusses. In der Physik gibt es eine große Debatte darüber, ob es sich dabei um eine Illusion handelt oder nicht.

STANDARD: Welche Standpunkte gibt es in dieser Debatte?

Buonomano: Vertreter des Eternalismus (Theorie, die das Vergehen der Zeit als irreal postuliert, Anm.) gehen davon aus, dass die Zeit nicht fließt. Vergangenheit, Gegenwart und Zukunft sind gleichermaßen real und gegeben. Es gibt etwa eine ältere Version einer Person und eine jüngere Version, die zu verschiedenen Zeitpunkten existieren und sich an unterschiedlichen Orten befinden. Der Präsentismus besagt, dass nur die Gegenwart real ist – die Vergangenheit existiert nur in unserer Erinnerung, die Zukunft wird erst eintreten.

STANDARD: Diese Ansicht erscheint aber nicht recht intuitiv.

Buonomano: Genau. Sie wirft die Frage auf, warum wir dann den Eindruck haben, dass Zeit vergeht. Zeit ist fundamental für unser Selbstverständnis, und eine der Hauptaufgaben des Gehirns ist schließlich, vorauszusagen, was zukünftig geschieht. Bei meinen Recherchen fand ich besonders interessant, dass das Konzept der Zeitreise heutzutage überall in Literatur, Filmen und der Popkultur auftaucht. Vor dem späten 19. Jahrhundert wurde eine solche Vorstellung hingegen fast nie diskutiert. Vielleicht haben die Menschen Zeitreisen früher deshalb nicht in Betracht gezogen, weil sie absurd erscheinen, wenn man nach dem Präsentismus geht. Es ist sehr natürlich für uns, zu denken, dass nur die Gegenwart real ist. Schließlich haben wir unsere Erinnerungen und handeln jetzt, um die Zukunft zu gestalten. In gewisser Weise stellt der Eternalismus sogar unseren freien Willen infrage.

STANDARD: Wie erklären Sie solche komplexen Konzepte einem Publikum, das keine Vorbildung hat?

Buonomano: Es ist eine Herausforderung. Ich denke aber, dass es gerade beim Thema Zeit insofern einfacher ist, als jeder Mensch eine Beziehung dazu hat und auf eigene Erfahrungen zurückgreifen kann. Bei Vorträgen finde ich es aber wichtig, die Dinge nicht zu sehr zu versimpeln. Ich versuche, die Leute zu stimulieren. Es beunruhigt mich ein wenig, dass in der Wissenschaftskommunikation und in Medien oft zu stark vereinfacht wird. Dabei ist die wichtigste Aussage vieler Forschungsprojekte eigentlich: Die Angelegenheit ist kompliziert. Manchmal werden Sachverhalte so dargestellt, dass man den Eindruck gewinnt, sie seien gar nicht so komplex.

STANDARD: Worin besteht die Gefahr in der zu großen Vereinfachung?

Buonomano: Viele Leute könnten denken, dass etwas entweder nur gut oder nur schlecht ist. Das passiert oft beim Thema Ernährung, man hört oder liest zum Beispiel, "Salz ist gut" oder "Salz ist schlecht". Als Forschende und als Medien sollten wir dem Publikum begreiflich machen, dass wir bei komplexen biologischen Problemen keine einfachen Antworten erwarten sollten, weil diese Dinge grundsätzlich kompliziert sind.

STANDARD: Sie referierten in Wien über "Brain Bugs", Fehler des Gehirns. Was verstehen Sie darunter?

Buonomano: Das Gehirn hat sich entwickelt, um bestimmte Aufgaben zu erfüllen, und wir sind beispielsweise sehr gut darin, Muster zu erkennen, Gesichter zu unterscheiden und zu assoziieren. Aber wir haben es auch geschafft, eine Gesellschaft und Kultur um uns herum aufzubauen, die sehr reich an Informationen ist. Wir leben im digitalen Zeitalter, treffen tausende Menschen und sind unzähligen neuen Ideen und Informationen ausgesetzt. Aber das Gehirn ist nicht sonderlich gut dafür geeignet, das alles auf rationale, effektive Weise zu verarbeiten. Auch unser Erinnerungsvermögen ist nicht perfekt.

STANDARD: Was sind die Folgen?

Buonomano: Das führt dazu, dass wir Entscheidungen oft mithilfe unseres automatischen Systems treffen, das auf Assoziationen basiert und etwas emotionaler und kurzsichtig ist. Dabei enden wir oft in Situationen, die gar nicht in unserem Interesse sind.

STANDARD: Wie sollten wir damit umgehen?

Buonomano: Ich betone gern, dass wir als Menschen deshalb so klug sind, weil wir fähig sind, unsere Unwissenheit zu erkennen. Wir sollten wertschätzen, dass Intelligenz teilweise darin besteht, zu erkennen, dass wir gewisse Dinge nicht verstehen. Wenn wir die Komplexität von Themen wie Finanzen, Gesundheitsfürsorge oder Immigration anerkennen würden, dann wären wir vielleicht etwas bescheidener, was unsere Meinungen dazu angeht. Und wir wären nicht so gespalten in zwei gegensätzliche Gruppen.

STANDARD: Wie tragen Sie zu diesem besseren Verständnis bei?

Buonomano: Mein Zugang ist, Leuten beizubringen, dass dieses Phänomen sehr natürlich ist, weil unsere Gehirne nicht perfekt sind. Wir sollten uns damit wohlfühlen, nicht alles zu wissen. Das ist beispielsweise schon so, wenn wir die Mathematik betrachten. Niemand denkt, dass er oder sie bei Rechenaufgaben besser abschneidet als ein Computer, weil eindeutig ist, wie schlecht wir sind. Wir sollten Kindern und Erwachsenen mehr darüber beibringen, wie unsere Gehirne arbeiten. Dadurch könnten sich mehr Menschen mit dem Gedanken anfreunden, dass wir nicht von Natur aus gut darin sind, Entscheidungen in Bereichen wie Politik, Wirtschaft oder Gesundheit zu treffen. Wenn man sich in dieser Hinsicht mehr Zeit gibt, hilft das dabei, die eigenen Meinungen zu reflektieren. 


Dean Buonomano (52) wurde im US-amerikanischen Providence geboren und wuchs in Brasilien auf. Nach seinem Biologiestudium in São Paulo zog er für das Doktorat wieder in die USA. Er ist Professor der Neurowissenschaften an der University of California, Los Angeles, und Verfasser der Werke "Brain Bugs: Die Denkfehler unseres Gehirns" und des noch nicht ins Deutsche übersetzten "The Time Machine: The Neuroscience and Physics of Time"

Sonntag, 5. November 2017

Logik und Vorstellung.


institution logoWahrscheinlichkeitsrechnung
- schon die Kleinsten beherrschen sie

Verena Müller 
03.11.2017 14:21 
Eine der wichtigsten Fähigkeiten unseres Gehirns ist es, aus wenigen Daten allgemeine Schlussfolgerungen über unsere Umgebung zu ziehen, um so möglichst viele Unsicherheiten zu vermeiden. Dafür schätzt es ständig ab, wie wahrscheinlich ein Ereignis ist und erkennt so Regelmäßigkeiten. Als Erwachsene haben wir dadurch eine grobe Vorstellung über die Wahrscheinlichkeit verschiedener Geschehnisse. Bisher war jedoch unklar, ab welchem Alter wir in der Lage sind, Wahrscheinlichkeiten einzuschätzen. Wissenschaftler des Max-Planck-Instituts für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig haben nun gezeigt: Bereits sechs Monate alte Babys haben ein Gefühl für Wahrscheinlichkeiten.

Ein Leben lang müssen wir immer wieder Entscheidungen treffen und dabei Wahrscheinlichkeiten gegeneinander abwägen. Indem wir lernen einzuschätzen, welches Ereignis wahrscheinlicher eintritt als ein anderes, werden wir besser darin, Risiken abzuschätzen und entsprechend daran unser Handeln auszurichten. Doch in welchem Alter beginnen wir, ein Gefühl für die Stochastik von Geschehnissen zu entwickeln? Sind etwa schon Babys dazu in der Lage?

Wissenschaftlerinnen des Max-Planck-Instituts für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig und der Universität Uppsala, Schweden, haben nun herausgefunden, dass bereits sechs Monate alte Babys Wahrscheinlichkeiten bewerten können. Den Kleinen gelingt es bereits aus einer Menge aus blauen und gelben Bällen herauszufiltern, welche Farbe die häufigere und damit diejenige ist, die mit größerer Wahrscheinlichkeit gezogen wird. „Die Fähigkeit, Wahrscheinlichkeiten abzuschätzen, scheint sich etwa im Alter von sechs Monaten herauszubilden“, so Ezgi Kayhan, Neurowissenschaftlerin am MPI CBS und Leiterin der zugrundeliegenden Studie. In einer früheren Studie konnten vier Monate alte Babys diese Aufgabe noch nicht lösen. Sie scheinen daher noch nicht sensibel für Wahrscheinlichkeiten zu sein.

Untersucht haben die Neurowissenschaftler diese Zusammenhänge mithilfe animierter Filme, die sie insgesamt 75 Babys im Alter von sechs, zwölf und 18 Monaten zeigten. Darin zu sehen war eine Maschine, gefüllt mit einer Menge Bälle, viele davon waren blau, wenige gelb – ähnlich einer Lottomaschine. Diese spuckte in einen Korb viele der hauptsächlich vorhandenen blauen Bälle. In einen anderen hingegen viele der kaum enthaltenen gelben Bälle. Dass die Maschine einen gelben statt eines blauen Balls ausspuckt, war dabei 625 Mal unwahrscheinlicher. Dieser zweite Behälter voller gelber Bälle spiegelte damit ein Ereignis wider, dass nur mit einer extrem geringen Wahrscheinlichkeit auftritt.

Während die Babys die Kurzfilme sahen, beobachteten die Forscher mithilfe der sogenannten Eyetracking-Methode, auf welche der beiden Körbe die kleinen Probanden länger schauten – die wahrscheinlichere oder die unwahrscheinlichere. „Wir haben festgestellt, dass die Babys, egal welcher Altersklasse, länger auf die unwahrscheinlichere Variante schauten als auf die andere. Vermutlich waren sie erstaunt darüber, dass sie vor allem aus den nur sehr wenig vorhandenen gelben Bällen bestand, sie also ein sehr unwahrscheinliches Ereignis war.“ Um sicherzustellen, dass die Kleinen sich nicht nur mehr zu der gelben Farbe hingezogen fühlten, drehten die Wissenschaftlerinnen in einigen der Versuche die Häufigkeiten beider Farben um oder verwendeten grüne und rote Bälle.

„Prinzipiell gab es bereits einige Studien dazu, ob Kleinkinder dazu in der Lage sind, Wahrscheinlichkeiten abzuschätzen. Wir waren jedoch die ersten, die die Grenzen dieser frühen Fähigkeit untersuchten“, erklärt Kayhan. Dazu testeten sie und ihr Team, ob es einen Unterschied macht, wie klar der Unterschied zwischen der wahrscheinlichen und der unwahrscheinlichen Variante auf den ersten Blick zu erkennen ist.

Und tatsächlich: Als die Forscher das Verhältnis aus blauen und gelben Kugeln und damit die Wahrscheinlichkeiten, eine der beiden Farben zu ziehen, veränderten, änderten sich auch die Blicke der Kleinen. War es nun lediglich neunfach wahrscheinlicher, dass die Maschine eine blaue statt einer gelben Kugel ausspuckte, schauten die kleinen Studienteilnehmer plötzlich länger auf die wahrscheinlichere Variante, den Korb mit vorrangig blauen Bällen.

„Diese Beobachtung war für uns sehr überraschend. Eine Erklärung dafür könnte es, dass mit steigendem Schwierigkeitsgrad auch die Informationen für die Kleinen ab einem bestimmten Level zu komplex wurden. Aus früheren Studien wissen wir, dass Babys sich in den Fällen auf ihnen bekannte Objekte oder Zusammenhänge konzentrieren, in denen sie nicht genügend Zeit haben, neue und komplexe Informationen zu verarbeiten“, sagt Kayhan. „Sobald sie dann auch diese entschlüsselt haben, können sie sich neuen Dingen widmen.“ Unabhängig von einer möglichen Erklärung wurde den Wissenschaftlerinnen anhand der Ergebnisse vor allem eines klar: Die Fähigkeit der Kleinen, mit Wahrscheinlichkeiten umzugehen, hängt nicht nur von ihrem Alter, sondern auch vom Verhältnis zwischen einem wahrscheinlichen und unwahrscheinlichen Ereignis ab.

http://www.cbs.mpg.de/Wahrscheinlichkeitsrechnung-Schon-die-Kleinsten-beherrsche...


Nota. - Ist das die ganze Ausbeute: dass Wahrscheinlichkeit eine Sache des Verhältnisses ist?! In der Logik wird zwischen Notwendigkeit, Möglichkeit und Unmöglichkeit unterschieden. Doch Logik ist Menschen- werk und wird erst nach und nach mitgeteilt - aber fix und fertig, nämlich von den Erwachsenen. Oft, selten, immer, nie sind dagegen Vorstellungen, die jedes Individuum aus eigenem Erleben formt. Wobei 'immer' ein Selbstverständliches wird, das mit der Zeit an die Grenze der Wahrnehmbarkeit rückt - obwohl es doch viel öfter geschieht als das Seltene und daher größeren Einfluss aufs Leben haben mag als jenes. Vorstellen und begreifen sind nicht nur zweierlei, sondern können auch in Gegensatz zu einander geraten...
JE

 

Samstag, 4. November 2017

Finder oder Erfinder?

Dalí The desintegration of the persistance of memory
aus Die Presse, Wien, 03.11.2017 um 18:02
 
Hirnareale mit fixer Funktion
Sonde im Gehirn führt zu bestimmter Bildillusion.


Wenn Epilepsiepatienten nicht auf Medikamente ansprechen, ist ein Ansatz, die Entstehungsorte der Störung im Gehirn zu suchen und gegebenenfalls zu entfernen. Die dazu notwendigen Sonden, die im Gehirn kleinste Bereiche stimulieren, werden von dem Spin-off der TU Graz, g.tec, gebaut, das auf Gehirn-Computer-Schnittstellen spezialisiert ist. Nun ermöglichten die Sonden bei einer Forschungskooperation mit den USA und Japan bahnbrechende Ergebnisse: Stimuliert man im Gehirn kleine Areale der visuellen Verarbeitung, kann man die Illusion bestimmter Bilder hervorrufen. Der Beweis, dass es im Gehirn Berei- che gibt, die bestimmte Aufgaben exklusiv erfüllen, gelang erstmals an Menschen: Der Proband sah auf einem Ball ein Gesicht und auf einer Schachtel einen Regenbogen, je nachdem, welches Areal stimuliert wurde. (APA/vers)


Nota. -  Was da die Presse so en passant meldet, ist ja - irre ich mich etwa? - eine Revolution in der Hirn- forschung (wenn es sich bestätigt). An bestimmten Stellen des Gehirns wären bestimmte Bilder gespei- chert, wird die Stelle stimuliert, wird das Bild "gesehen"?! Aber wie ist das Bild dort hineingekommen? Ist es lediglich eine aktualisierte Erinnerung? Dann wärs banal. Ist es eine spontane Kreation - weil die 'Stelle' immer schon dieses Bild kreiert -, dann ist es eine Senasation und stellt alles, was man bislang über Wahr- nehmung und Erkenntnis zu wissen meinte, buchstäblich auf den Kopf. (Ich vermute ganz banal die erste Variante.)
JE 




Montag, 30. Oktober 2017

Risiko ist Charaktersache.

 aus derStandard.at, 30. Oktober 2017, 12:03

Risikobereitschaft ist in der Persönlichkeit verwurzelt
Befragungen und Verhaltensexperimente mit 1.500 Probanden hinterfragen bisherige Untersuchungen

Basel – Auch wenn die menschliche Risikofreude je nach Situation schwankt, die Grundeinstellung zu Risiken dürfte ein stabiles psychologisches Merkmal sein, etwa vergleichbar mit dem Intelligenzquotient. Zu diesem Schluss kamen nun Basler Forscher zusammen mit deutschen Kollegen.

"Zwar gehen viele Forschende davon aus, dass es eine Risikodisposition gibt, aber wir haben den Nachweis dafür mit einer deutlich größeren Anzahl von Probanden und Messmethoden erbracht als frühere Studien", erklärte Jörg Rieskamp von der Uni Basel. Im Rahmen der vom Schweizerischen Nationalfonds SNF unterstützten Studie befragten und testeten die Forscher um Rieskamp über 1.500 Probanden.

Mehrfache Tests

Die Wissenschafter befragten die Teilnehmenden zum einen über ihr Risikoverhalten in hypothetischen Szenarien sowie ihr Verhalten im Alltag. Zum anderen ließen sie Verhaltensexperimente durchführen, wie die Schweizer Forscher gemeinsam mit Experten vom Max-Planck-Institut (MPI) für Bildungsforschung in Berlin am Montag mitteilten. Insgesamt absolvierten die Probanden 39 Tests.

Nach sechs Monaten wiederholten die Wissenschafter die Untersuchung mit 109 der Teilnehmenden, um festzustellen, wie stabil die Ergebnisse über die Zeit waren. "Mit statistischen Methoden konnten wir nachweisen, dass es einen übergreifenden Faktor der Risikobereitschaft gibt, der einen großen Teil des individuellen Verhaltens erklärt", so Rieskamp. "Zusätzlich gibt es aber je nach Situation Schwankungen."

Unzuverlässige Verhaltenstests

Die Untersuchung förderte zudem eine Schwachstelle von Verhaltenstests zutage, die von vielen Verhaltensökonominnen und Psychologen meist als zuverlässiger betrachtet werden als Selbstauskünfte. Bei solchen Tests geht es beispielsweise darum, durch risikofreudige Spieleinsätze einen finanziellen Gewinn zu maximieren, oder sich mit einem kleineren Gewinn zu begnügen, den man aber mit sehr viel höherer Wahrscheinlichkeit erhält.

"Viele argumentieren, in den Tests beobachte man tatsächliches Verhalten", so Rieskamp. "Unsere Studie mit vielen verschiedenen Tests hat aber gezeigt, dass sie je nach Versuchsaufbau zu völlig gegensätzlichen Ergebnissen kommen können. Die gleiche Person wird je nach Test als risikoscheu oder als risikofreudig eingestuft." Die Selbstauskunft zum Verhalten im Alltag und zu theoretischen Szenarien lieferten in der neuen Studie hingegen ein konsistenteres Bild.

"Unsere Arbeiten sind ein Weckruf, die verschiedenen Messtraditionen zu hinterfragen und insbesondere besser zu verstehen, was genau die Verhaltenstests eigentlich messen", sagte Studienautor Ralph Hertwig vom MPI. "Sie scheinen jedenfalls keine situationsübergreifende Risikopräferenz zu erfassen." Die Entdeckung, dass es eine solche gibt, erlaube nun auch, die biologischen Grundlagen von Risikobereitschaft zu untersuchen, wie die Forscher in den Fachjournalen "Science Advances" und "Nature Human Behaviour" schreiben. (APA, red,)

Nota. - Dass Risikobereitschaft und Unternehmungslust tief im Charakter begründet sind, hätte man ohnehin vermutet und frühere Tests haben es bestätigt. Bemerkenswert an dieser Studie ist darum dies: dass Tests weniger zuverlässig sind als Selbstauskünfte. Da würde man doch gerne wissen: Gilt das bloß für die Risikofreudigkeit, oder ist es eine allgemeine Regel? Letzteres wäre eine kleine Revolution in der Verhaltungsforschung.
JE 

Sonntag, 29. Oktober 2017

Der Gegenstand der Naturwissenschaft ist nicht natürlich.


In der Neuen Zürcher vom 3. August d. J. versöffentlichte Hans-Jörg Rheinberger unter der Überschrift Wissenschaften sind veränderliche Kulturtechniken einen Essay über das Verhältnis von Naturwissenschaft und ihren kulturellen Bedingungen. Der Eingangssatz: "Die Objekte naturwissenschaftlicher Forschung sind nichts Natürliches".

Die Rede von den zwei Kulturen und der Überwindung ihrer Grenzen ist ein Dauerthema seit fünfzig Jahren. So formulierte es der vielzitierte – aber wenig gelesene – C. P. Snow 1959: «Literarische Intellektuelle auf der einen Seite – auf der andern Wissenschafter, und als die repräsentativsten unter ihnen die Physiker. Zwischen den beiden ein Abgrund von Unverständnis – manchmal (besonders unter den Jungen) Feindseligkeit und Abneigung, vor allem aber fehlende Verständigung.»

Und er forderte: «Die Kluft zwischen unseren Kulturen zu schliessen, ist eine Notwendigkeit, und zwar sowohl im ganz abstrakten geistigen als auch im ganz praktischen Sinn. Wenn die beiden auseinandergefallen sind, ist eine Gesellschaft nicht mehr in der Lage, weise zu denken.» 

Um die gleiche Zeit sei der Ruf nach Interdisziplinarität aufgekommen - bis heute nicht wieder verstummt.

Das sollte als Hinweis darauf verstanden werden, dass es dabei um mehr als um eine vergängliche Mode geht. Wir haben es vielmehr mit den Zeichen eines tiefgreifenden Umbaus auf dem Feld der Wissenschaften und ihrer Entwicklung selbst zu tun. War die Klage des Physikers, Schriftstellers und Politikers Snow, der sich allerdings äusserst sicher zwischen den Kulturen zu bewegen wusste, nur die Künderin einer zu Ende gehenden Epoche – eine klassische Eule der Minerva also?

Tatsächlich hätten sich nicht zuletzt in der Naturwissenschaften die im 19. festgeschriebenen Grenzen zwischen den Disziplinen inzwischen verflüssigt.

Die Biologie mit ihren Hybridbildungen von der biophysikalischen Chemie über die Molekularbiologie bis zur synthetischen und Systembiologie bietet ein gutes Beispiel dafür. Um das zu sehen, bedarf es eines nahen Blicks auf die jeweiligen Praktiken der Wissenschaften. Die Auseinandersetzung über das Verhältnis zwischen den Naturwissenschaften und den Kultur- sowie Geisteswissenschaften – jedenfalls so, wie sie im akademischen und im öffentlichen Raum zumeist stattfindet – leidet oft genug darunter, dass sie die jeweils aktuellen Frontverläufe der Forschung in ihrer Verschlungenheit gar nicht zur Kenntnis nimmt.


Werfen wir einen Blick auf den biologisch-technischen Komplex, für den gegenwärtig das Schlagwort einer «synthetischen Biologie» immer mehr in Gebrauch kommt. Die Forschungsgegenstände in diesen Bereichen – zugleich prospektive Anwendungsobjekte – sind in der Regel nicht mehr allein durch ihre natürlichen – seien sie physikalisch, chemisch oder biologisch – oder technischen Seiten bestimmt. Sie sind mehrfach hybride Gegenstände geworden, in denen sich Aspekte sowohl von Natur wie auch von Kultur untrennbar miteinander verbinden und sich auch nur verantwortlich handhaben lassen, wenn diese Verbindung nicht ausgeklammert wird.

Kurz gesagt: Das technisch-kulturelle Potenzial bestimmt, was epistemisch, und das epistemische Potenzial bestimmt, was technisch-kulturell relevant werden kann. Damit sind wir bei einer Konstellation des Verhältnisses von Natur und Kultur angelangt, die uns nicht nur dazu einlädt, sondern auch herausfordert, unsere Aufmerksamkeit diesen beiden Kategorien zuzuwenden und sie selbst in ihrer Entstehung und in ihrem historisch wechselnden Zueinander zu betrachten.

Insbesondere scheint mir, dass es für beide Seiten – die Naturwissenschaften wie die Geisteswissenschaften – immer wichtiger wird, ein Bewusstsein für die Veränderungsdynamik der für sie jeweils spezifischen Forschungsgegenstände zu entwickeln. Die Gegenstände des Wissens wie die Anwendungen dieses Wissens haben alle ihre historischen Trajektorien, die entscheidend davon abhängen, welche Möglichkeiten des Zugriffs auf sie sich jeweils eröffnen. Der Bedeutung dieser Zugriffsmöglichkeiten muss eine historische Epistemologie nachgehen.

Es ist also entscheidend, sich der Geschichtlichkeit und damit auch der kulturellen, technischen und sozialen Vermitteltheit der Gegenstände bewusst zu werden, die unsere wissenschaftliche Welt bevölkern.

Manchmal sind es verzweigte und verzwackte Geschichten, sie sind von unterschiedlicher Dauer, von unterschiedlicher Durchschlagskraft, und zuweilen können die ihnen entsprechenden Gegenstände wissenschaftlichen Interesses auch wieder verschwinden. Die historische Entwicklung von Disziplinen ist ja selbst letztlich nichts weiter als der organisatorische und institutionelle Ausdruck der grundlegenden Dynamik eben genau dieser wissenschaftlichen Objekte. Es ist also entscheidend, sich der Geschichtlichkeit und damit auch der kulturellen, technischen und sozialen Vermitteltheit der Gegenstände bewusst zu werden, die unsere wissenschaftliche Welt bevölkern – und eben nicht nur der Theorien und Begriffe oder abstrakter methodologischer Prinzipien wie Verstehen und Erklären.

Hans-Jörg Rheinberger ist Emeritus Scientific Member des Max-Planck-Instituts für Wissenschaftsgeschichte in Berlin. Im vergangenen Jahr ist (bei Diaphanes) sein Buch «Der Kupferstecher und der Philosoph. Albert Flocon trifft Gaston Bachelard» erschienen.


Nota. - Die Kritik an der Künstlichkeit der Gegenstände experimenteller Naturwissenschaft kam gleichzeitig mit der Einführung des experimentellen Verfahrens durch Fr. Bacon auf. In ihren Laboren quälten, folterten und verstümmelten die Forscher die lebendige Natur, und deren abgezwungene Auskünfte seien so unverlässlich wie die Geständnisse eines Angeklagten unter der Tortur. 

Freilich war das ein emphatisches Bild von der Natur und kein reduktionistisches; doch Bilder sind sie beide.

Die Unterscheidung von Natur- und Geisteswissenschaften wurde von Wilhelm Dilthy systematisiert, und umgangssprachlich tut sie bis heute gute Dienste. Aber erkenntnislogisch ist sie irreführend, wie bereits Diltheys neukantianische Zeitgenossen vermerkten: Der Gegenstand der Naturwissenschaften ist vom systematisierenden Geist des Forschers intentional entworfen, und indem er sich mit ihm befasst, befasst er sich - in zweiter Instanz - ebenso mit 'dem Menschen' wie in erster Instanz die Geisteswissenschaften. Nicht nach ihren Gegenständen, sondern nach ihren Erkenntniswegen müssten die Wissenschaften unterschieden werden: in solche, die ("nomothetisch") allgemeine Gesetze für mannigfaltige Phänomene aufstellen; und solche, die ("idiographisch") einzelne Phänomene umfassend beschreiben wollen.  

Jede Forschung verfährt nomothetisch, wenn und indem sie sich mathematischer Formeln bedient. Was mathematisch dargestellt wird, wird als Gesetz dargestellt. Allerdings hat nicht die Natur die Mathematik hervorgebracht. Vielmehr hat ein mathematisches Weltbild das hervorgebracht, was wir heute unter Natur verstehen; es ist ein Zirkel.

Wenn H.-J. Rheinberger den Gegensatz von Natur- und Kulturwissenschaften irgendwie übersteigen will, kann ihm das immer nur nach dieser einen Seite hin gelingen: Im 'Naturgegenstand' steckt immer schon mehr Kultur, als im Kulturereignis natürlicher Stoff...
JE

















Mittwoch, 25. Oktober 2017

Konzentrieren oder ausschweifen?

d'Astanière, Petit diable
aus scinexx

Tagträumer sind oft intelligenter
Gedankliche Auszeiten sprechen für Kreativität und hohe kognitive Kapazität

Wandernde Gedanken: Wer sich häufig beim Tagträumen ertappt, muss nicht besorgt sein – im Gegenteil. Denn das gedankenverlorene Abschweifen kann ein Zeichen für hohe Intelligenz und Kreativität sein, wie eine Studie enthüllt. Forscher fanden darin einen engen Zusammenhang zwischen dem häufigen Tagträumen und einer besonders guten Vernetzung des Gehirns. In Tests der kognitiven Leistung und Kreativität schnitten die Tagträumer zudem besonders gut ab.

Ob in einem nur mäßig spannenden Meeting, in der Schule oder bei der Fahrt zur Arbeit: Oft ertappen wir uns dabei, dass wir mit unseren Gedanken ganz woanders sind als im Hier und Jetzt. Lange galt dieses Tagträumen als Zeichen mangelnder Konzentration und Aufmerksamkeit. Vor allem Eltern machen sich nicht selten Sorgen, wenn ihre Kinder oft gedankenverloren vor sich hin träumen.

Hirnareale stärker vernetzt

Doch wie Christine Godwin vom Georgia Institute of Technology und ihre Kollegen jetzt herausgefunden haben, ist das Tagträumen keineswegs negativ – eher im Gegenteil. Für ihre Studie hatten sie 100 Probanden dazu befragt, wie oft ihre Gedanken im Alltag abschweifen. Anschließend bekamen sie die Aufgabe, fünf Minuten lang einen Punkt zu fixieren, während ihre Hirnaktivität mittels funktioneller Magnetresonanz-Tomografie (fMRT) aufgezeichnet wurde.

"Die Hirnaktivität bei dieser Aufgabe gibt uns Aufschluss darüber, welche Hirnareale während des wachen, entspannten Zustands zusammenarbeiten", erklärt Godwin. Dabei zeigte sich: Bei den Teilnehmern, die über häufige Tagträumereien berichteten, war das für die Aufmerksamkeit wichtige Default-Mode Netzwerk besonders eng mit dem fronto-parietalen Kontrollnetzwerk verknüpft – dem Areal, dass unseren gedanklichen Fokus steuert.



(Georgia Institute of Technology, 25.10.2017 - NPO)


Nota. - Die Schule kann naturgemäß nur Konzentration einüben, studieren: mit Eifer. Zu ausschweifendem Denken anregen kann und will sie nicht.

Vor allen historischen und sozialpolitischen Nebenerwägungen gilt daher: Auch im Idealfall kann die Schule nicht die ganze, sondern allenfalls die halbe Bildung bieten; nämlich das, was an ihr gewöhnlich ist. Ebenso wichtig - und künftig viel wichtiger - ist aber die außergewöhnliche Seite. Die muss man vorm Zugriff der Schule schützen. Unsere Zukunft hängt daran.
JE


Montag, 23. Oktober 2017

Funktioniert das Gehirn wie ein Orchester?

aus derStandard.at, 23. Oktober 2017, 09:47

Gehirn funktioniert wie Orchester
Ein internationales Forschungsteam untersucht die Dynamik der Neuronen im Gehirn – Gammawellen koordinieren Zusammenspiel

Je mehr über die Milliarden von Nervenzellen im Gehirn bekannt ist, desto weniger erscheint ihr Zusammenspiel spontan und zufällig. Welche Harmonie der Verarbeitung von Gedächtnisinhalten zugrunde liegt, hat die Arbeitsgruppe von Marlene Bartos am Institut für Physiologie veranschaulicht. Die mit einem Kollegen vom Institute of Science and Technology Austria entstandene und im Journal "Nature Communications" publizierte Studie hebt die Rolle von hemmenden Schaltkreisen bei der Entstehung von hochfrequenten Hirnwellen im Hippocampus hervor.

Damit liefert das Team Anhaltspunkte dafür, wie das Gehirn gedächtnisrelevante Informationen verarbeitet. "Forschende vermuten schon länger, dass Frequenzen über 30 Hertz die synchrone Zusammenarbeit verschiedener Zellnetzwerke des Gehirns koordinieren. Bekannt ist auch, dass die Aktivität in diesem Frequenzbereich beispielsweise bei Alzheimer-Patientinnen und -Patienten deutlich reduziert ist", fasst Bartos den Grundgedanken ihrer Forschung zusammen.

Wie Zelltypen verknüpft sind

Wie aber kommt es zu diesen als Gamma-Wellen bezeichneten Signalen an verschiedenen Orten gleichzeitig? Und was konkret bedeutet das für das menschliche Gedächtnis? Als Expertinnen und Experten auf dem Gebiet der synaptischen Verknüpfungen schauten sich Bartos und ihr Team die Kommunikation zwischen so genannten Interneuronen im Hippocampus von Mäusen genauer an.
Ein Interneuron ist ein zwischen zwei oder mehreren anderen Neuronen liegender Zelltyp mit besonders kurzen Zellfortsätzen, der schnell und effizient eine Fortleitung hemmender Impulse an seine Nachbarzellen bewirken kann. "Vergleichbar zu Instrumentengruppen in einem Orchester gibt es kleine Schaltkreise, an denen inhibitorische Interneurone wesentlich beteiligt sind", erklärt Bartos. "Wie die Aufgabe des Dirigenten, an manchen Stellen beispielsweise die Bläser in den Hintergrund zu rücken, um ihnen im nächsten Moment wieder volles Gewicht zu geben, kann man sich auch ihre Rolle vorstellen."

Auf Signal warten

Wichtigste Beobachtung der Studie war, dass die umliegenden Zellen, wenn sie sich aus ihrem Ruhezustand lösen, empfänglich gegenüber bestimmten Informationen sind. Sie werden dann zur Bildung eines gemeinsamen Aktionspotentials angeregt, sodass ein Signal auf andere Neuronen übertragen werden kann. Dies wiederum lässt sich elektrophysiologisch als Entladung von Gammawellen messen.

"Das Interessante daran ist, dass sich die Mikroschaltkreise nicht ineinander einmischen, sondern parallel verschiedene Informationen, wie zum Beispiel die Attribute Form und Farbe eines Gegenstands, abspeichern oder abrufen können. Dies erlaubt die zeitgleiche parallele Verarbeitung und das Speichern von Information.Wir sind der Meinung, dass auf diese Weise erste Gedächtnisspuren gelegt werden", so Bartos. 

Um dem Gedächtnis wirklich auf die Spur zu kommen, wird es allerdings noch viel mehr Grundlagenforschung benötigen. Bartos und ihr Team arbeiten mit Hochdruck daran, dass ihre Erkenntnisse in ein paar Jahren auch für die Therapie von neurodegenerativen Krankheiten nutzbar sind. (red/idw)

Originalpublikation:
Distance-dependent inhibition supports focality of gamma oscillations 


Nota. - Vergleiche sollen veranschaulischen, Anschaulichkeit soll übersichtlich, also einfacher machen. Der Vergleich mit einem Orchester tut nichts davon. Ein Orchester hat einen Dirigenten, und der Dirigent hat eine Partitur. Das Gehirn hat nichts dergleichen. 

Bleibt: Während einerseits das System als Ganzes kommuniziert, kommunizieren bestimmte Neuronen- gruppen gleichzeitig privilegiert untereinander. Wusste man das bisher noch nicht?
JE