Die Konzeption der kritischen Ontologie Teil I

ki-15669-7_1

 

In der Metaphysik der Erkenntnis hat Hartmann mit seinem kritischen Realismus das Fundament für seine Ontologie der realen Welt gelegt. Wesentliche Gedanken seiner Konzeption der Ontologie als Kategorienlehre hat er in seinem programmatischen Aufsatz „Wie ist kritische Ontologie möglich?“ (1923) veröffentlicht. Die endgültige Gestalt hat seine ontologische Konzeption vor allem in den beiden Werken Grundlegung der Ontologie (1935) und Aufbau der realen Welt (1940) erhalten. Hartmanns Bemühungen um eine Erneuerung der Ontologie müssen im Kontext von der zeitgenössische philosophischen Strömungen gesehen werden. Dies ist zunächst der Neukantianismus, gegen dessen idealistische Kategorienlehre Hartmann sich abzugrenzen versucht; sodann gibt es verschiedene Versuche, die auf der Basis einer realistischen Erkenntnistheorie Ontologie zu rehabilitieren versuchen, und schließlich gehören dazu die phänomenologischen Ontologiekonzeptionen Husserls und Heideggers.

 

4.1.1. Die Ontologiekonzeptionen des Neukantianismus

Imagen01.jpg

Nicolai Hartmann

Für den Neukantianismus gibt es keine Ontologie der realen Welt, sondern nur eine Logik der Denkformen. Die südwestdeutsche und die Marburger Schule stimmen darin überein, dass die transzendentale Logik Kants im Sinne einer idealistischen Kategorienlehre die traditionelle Ontologie abgelöst hat. Die Differenzen beider Schulen kommen erst innerhalb dieses idealistischen Rahmens durch ihre verschiedene wissenschaftliche Orientierung zur Geltung. Während Cohen, Natorp und der junge Cassirer die Analyse der Grundbegriffe der exakten Naturwissenschaften betreiben, sind Windelband und Rickert auch und vor allem an den Geistes- und Kulturwissenschaften orientiert und bemühen sich um die Herausarbeitung der methodischen Differenzen zwischen Natur- und Kulturwissenschaften. Vorsichtige Schritte von einer Logik zur Ontologie finden sich aber bei Emil Lask und dem späten Heinrich Rickert.

 

4.1.1.1. Emil Lask

 

In Übereinstimmung mit den Grundanschauungen der südwestdeutschen Schule des Neukantianismus hat Emil Lask in seinen beiden Werken Die Logik der Philosophie und die Kategorienlehre (1911) und Die Lehre vom Urteil (1912) die Logik der exakten Wissenschaften durch eine Logik der nicht-sinnlichen „Geltungsshäre“ zu ergänzen versucht. Die unter dem Einfluss Kants erfolgte Restriktion auf die Sphäre des Sinnlich-Anschaulichen und damit auf eine Logik der naturwissenschaftlichen Erkenntnis soll damit überwunden werden. (vgl. Lask 1911, S.15, 20) Während Lask im Sinne der metaphysikkritischen Intentionen des Neukantianismus das metaphysische Gebiet des Übersinnlichen ausklammert, hält er das nicht-sinnliche Reich der zeitlos gültigen Gedanken und Werte einer philosophischen Analyse für zugänglich. Alles Denkbare zerfällt nach Lask somit Sphären der Wirklichkeit und der Werte. Der damit verbundene Dualismus wird nach seiner Ansicht verständlicher, wenn auch die Kategorien der nicht-sinnlichen „Geltungssphäre“ herausgearbeitet sind. (vgl. Lask 1911, S.2f, 12, 22; vgl. H.-L. Ollig 1979, S.113) – Lasks „Logik des Geltens“, die sich auch auf Husserl stützt, nimmt eine Thematik in Angriff, die im Zentrum von Hartmanns Theorie des idealen Seins steht. Sein Dualismus von Wirklichkeit und Werten entspricht formal Hartmanns Unterscheidung von realem und idealem Sein, doch ist Lasks Kategorienlehre idealistisch konzipiert.

 

Wenngleich Lask der Kategorienlehre ein neues Gebiet erschließen möchte, hält er an der (durch die kopernikanische Wende Kants charakterisierten) idealistischen Grundposition fest. Jede Gegenständlichkeit ist durch kategoriale Verstandesaktivitäten konstituiert; in jeder Realität steckt somit ein theoretischer Gehalt. Die Überführung der traditionellen Ontologie in eine transzendentale Logik betrachtet Lask daher als eine bleibende Errungenschaft Kants. (vgl. Lask 1911, S.23, 27) Mit der weiteren Ausdeutung, die Lask der kopernikanischen Wende gibt, vollzieht er jedoch eine Annäherung an den Realismus. Lask grenzt sich nämlich gegen die Neukantianer ausdrücklich mit der These ab, dass nicht die Gegenstände in ihrer konkreten Ganzheit, sondern nur ihr Gegenstandscharakter durch die Kategorien konstituiert wird. Das Logische (bzw. das Kategoriale) ist daher für ihn nur die Form einer alogischen Materie. Indem Lask zugesteht, dass die logisch-kategoriale Form stets durch ein fremdes Außersich ergänzt werden muss, nähert er sich der realistischen Auffassung, dass das alogische Material selber bereits eine bestimmte Struktur haben muss. (vgl. Lask 1911, S.30ff, 39f; H.-L. Ollig 1979, S.117) – Dass Lask in seiner Kategorienlehre sich gezwungen sieht, dem alogischen Material eine bestimmte an sich bestehende Struktur zuzusprechen, hat Hartmann vermutlich als Bestätigung seines eigenen realistischen Kategorienbegriffs begriffen. Wegen seines frühen Todes schied Lask als potentieller Bundesgenosse seiner ontologischen Bemühungen jedoch aus. Während man bei Lask von einem „Kryptorealismus“ sprechen kann, ist der Realitätsanspruch der Kategorien bei Hartmann deutlich schärfer herausgearbeitet.

 

4.1.1.2. Heinrich Rickert

 

Heinrich Rickert hat sich in seinen beiden Schriften Die Logik des Prädikats und das Problem der Ontologie (1930) und Grundprobleme der Philosophie. Methodologie. Ontologie. Anthropologie (1934) mit den neuen realphilosophischen Strömungen, die ein „Zurück zu den Sachen“ bzw. eine Wende zum Objekt propagieren, kritisch auseinandergesetzt. Zugleich hat er seine systematische Konzeption diesen Strömungen doch zumindest terminologisch angepasst, wenn er nunmehr auch von Ontologie und Anthropologie spricht. Entgegen seiner früheren Unterscheidung von Sein und Gelten als den beiden fundamentalen Arten des Denkbaren verwendet Rickert nun den Terminus „Sein“ als Ausdruck für alles Denkbare. Innerhalb des Seienden unterscheidet Rickert dann wie Hartmann zwischen realem und idealem (oder „geltendem“) Sein. Das reale Sein zerfällt in sinnliches und übersinnliches Sein, und das sinnliche Sein wiederum in psychische und physische Realität. Ontologie als Lehre von allem Seienden hat nun nach Rickert die Aufgabe, die grundlegenden Seinsformen zu untersuchen. Diese Aufgabe unterscheidet sich grundlegend von jeder philosophischen Synthese einzelwissenschaftlicher Resultate. Ontologie bedient sich zwar auch der Erfahrung, doch nur insofern, als sie die verschiedenen Seinsformen als gegeben zur Kenntnis nimmt. (vgl. Rickert 1930, S.6ff, 167ff; Rickert 1934, S.33) Heidegger und Hartmann waren für Rickert die großen Herausforderungen der zeitgenössischen Philosophie.

 

Wenngleich Rickert sich den zeitgenössischen ontologischen Ansätzen in gewisser Weise annähert, wendet er sich doch entschieden gegen die Versuche, der Ontologie den Primat vor der Erkenntnistheorie einzuräumen. Er weist die Kritik, dass der Neukantianismus nur Erkenntnistheorie gewesen sei, als Vorurteil zurück, erkennt jedoch das Ziel der neuen philosophischen Bemühungen um eine Ontologie im Sinne einer Lehre von der Welt in ihrer Totalität ausdrücklich an. (vgl. Rickert 1930, S.15ff) Als verfehlt betrachtet er jedoch alle Versuche, Erkenntnistheorie durch Ontologie zu ersetzen. Im Gegensatz zu den partikularen Weltsichten der Einzelwissenschaften könne die Philosophie auf erkenntnistheoretische Reflexionen nicht verzichten. Versuche man nämlich eine Ontologie zu entwickeln, so dürfe man das erkennende Subjekt, das irgendwie zur Welt hinzugehöre, nicht ignorieren. Erkennen ist daher für Rickert, ganz wie für Hartmann, selber eine Form des Seins. (vgl. Rickert 1934, S.26f) Der Verzicht auf Erkenntnistheorie führt nach Rickert nur allzu leicht zu verfehlten phänomenologischen oder intuitionistischen Auffassungen von Erkenntnis, so als ginge es nur darum, auf alle Vorurteile und Konstruktionen zu verzichten, damit das Seiende sich von selbst so zeige, wie es an sich sei. Rickert bezieht sich dabei vor allem auf Heidegger, dessen Erkenntnistheorie er als verfehlt kritisiert. Nicht der Verzicht auf Erkenntnistheorie, sondern lediglich das Zurückdrehen ihres dominanten Einflusses steht für ihn ernsthaft zur Debatte. Als Hauptvertreter einer solchen gemäßigten Auffassung betrachtet er Nicolai Hartmann. Dessen These, dass es ebenso wenig eine Erkenntnisfrage ohne Seinsfrage wie eine Seinsfrage ohne Erkenntnisfrage geben könne, stimmt Rickert ausdrücklich zu. Erkenntnistheorie bleibt für ihn zwar insofern der Anfang der Philosophie, als von dem Gegenstand der Philosophie, d.h. dem Weltganzen, zunächst ein Vorbegriff erarbeitet sein muss, bevor ontologische Analysen vorgenommen werden können, doch gehören Erkenntnistheorie und Ontologie für ihn gleichwohl untrennbar zusammen. (vgl. Rickert 1930, S.20ff, 157ff, 178; Rickert 1934, S.28f) Mit dieser Auffassung des Verhältnisses von Ontologie und Erkenntnistheorie hat Rickert sich weitgehend Hartmann angeschlossen.

 

Auch in einigen weiteren Punkten lehnt Rickert sich an Hartmann an. So stimmt er zunächst Hartmanns Auffassung der Unvermeidlichkeit von Ontologie zu. Von formaler Logik abgesehen, sei alles Erkennen eben auf Seiendes gerichtet. Ja, er glaubt mit seiner „Logik des Prädikats“ Hartmanns Auffassung, dass alle Erkenntnis Seinserkenntnis ist, sogar begründet zu haben. (vgl. Rickert 1930, S.174) Rickert schließt sich ferner Hartmanns Kritik voreiliger Systembildung an. Und ganz wie Hartmann betont er, dass das Ziel der Philosophie ein System sei, da sich die Ganzheit der Welt nur durch ein Ganzes von Gedanken erfassen lasse. Da ein systematisches Philosophieren jedoch stets Platz für neues Material lassen müsse. könne es sich dabei nur um ein offenes System handeln. (Vgl. Rickert 1934, S.24) Wie Hartmann wendet sich Rickert auch gegen jeden voreiligen Seinsmonismus, doch während Hartmann die Vielfalt im Rahmen einer geschichteten Realität anerkennt, geht es Rickert um den Pluralismus von Seinsformen.

 

Rickerts Ontologiekonzeption bleibt jedoch im Rahmen des neukantianischen Idealismus. Die idealistische Deutung der Ontologie folgt für ihn aus seiner Theorie des Prädikats, wonach „Sein“ nur als Prädikat und nicht als Subjekt auftreten darf. Indem Rickert Ontologie als Lehre von den grundlegenden Weltprädikaten fasst, erweist sich Ontologie letztlich doch als transzendentale Logik. (vgl. Rickert 1930, S.156, 163f) Idealistisch bleibt dieser Ansatz, weil die unvermeidliche Subjektbedingtheit allen Erkennens (und Prädizierens) eine transzendente Geltung der Erkenntnisformen ausschließen soll. Das Prädikat „Realität“ hat nach Rickert immer nur Bedeutung als Prädikat einer Aussage eines erkennenden Subjekts. (vgl. Rickert 1934, S.51ff) Trotz seiner thematischen und terminologischen Annäherungen an die neue Ontologie bleibt Rickerts Ontologie idealistische Kategorienlehre. Hartmann hat sich mit den ontologischen Anwandlungen des späten Rickert offenbar nicht mehr auseinandergesetzt. Vermutlich betrachtete er sie als vergebliche Versuche des Neukantianismus, den Idealismus durch terminologische Kosmetik am Leben zu erhalten.

 

Referanz:

https://plato.stanford.edu/entries/nicolai-hartmann/

Werbeanzeigen

Der historisch-systematische Bezugspunkt von Sein und Zeit: Die Metaphysik des Aristoteles

il_794xN.1449402488_c3au

 

Im Unterschied zu Adorno, der sein Denken wesentlich an den Systemen des deutschen Idealismus (Kant, Fichte, Schelling, Hegel) orientiert und an deren Grundbegriffe(Subjekt, Transzendentalphilosophie, Bewusstsein, Selbstbewusstsein, Geist, Dialektik etc.) abarbeitet, motiviert Heidegger die von ihm angestrebte Renaissance der Ontologie, die „Frage nach dem Sinn von Sein“, dem „Sein des Seienden“, „Seinsgrund“ etc. mit nichts weniger als eıner der Urszenen der abendländischen Philosophie, der von Aristoteles in der Metaphysik ausgearbeiteten Frage, nach „den ersten Prinzipien und Ursachen“, dem „Sein des Seienden“, dem Seienden mit Bezug auf Das Eine, „ dem Sinn von Sein“ (vgl. Aristoteles: Metaphysik).  In eins mit der Seinsfrage exponiert Aristoteles in der Metaphysik die Notwendigkeit der Philosophie als „Frage nach den ersten Prinzipien und Ursachen“, einer „sophia“ (in der Scholastik, etwa bei Thomas v. Aquin dann „prima philosophia“ genannt), die über einzelwissenschaftliche Behandlungen bestimmter Seiender in bestimmten Hinsichten hinaus den Seinsgrund selbst zum Thema haben solle (vgl. Aristoteles: Metaphysik, Bücher I-VI1). Heidegger knüpft explizit an die Aristotelische Fragestellung an, verweist an dieser Stelle gleichzeitig auf eine von ihm konstatierte, mindestens zweifache, historisch potenzierte Defizienz des Fragens nach dem „Sinn von Sein“ (vgl. hierzu Heidegger: Sein und Zeit, § 1 Die Notwendigkeit einer ausdrücklichen Wiederholung der Frage nach dem Sein), die sich folgendermaßen zusammenfassen lässt:

 

  1. Bereits in der Aristotelischen Metaphysik wird die Seinsfrage nicht zureichend gestellt und damit auch nicht zureichend beantwortet (siehe Einleitung § 1. Die Notwendigkeit einer ausdrücklichen Wiederholung der Frage nach dem Sinn von Sein, S. 3 f.). Aristoteles stellt Allgemeinheit (Übersteigung des Begriffs der Gattung, „Sein“ ist keine Gattung, kann keine Gattung sein, da sich die Gattungen-Arten-Logik nach „genus proximum, differentia specifica“ organisiert, die auf den Seinsbegriff nicht anwendbar ist, der vielmehr der Gattungen-Arten-Logik zugrunde liegt), Undefinierbarkeit (hängt mit Allgemeinheit zusammen) und Selbstverständlichkeit (ist in allen Prädikationen enthalten, ist jedem unmittelbar zugänglich, verständlich) als Merkmale des Seins heraus, übersieht dabei jedoch, dass hiermit der Sinn von Sein noch überhaupt nicht aufgeklärt ist, dass hiermit erst eine Art sortierender Vorarbeit geleistet ist, um zum „Grund“ dieser wesentlich der Form der logischen Prädikation entnommenen Charakteristika Allgemeinheit, Undefinierbarkeit, Selbstverständlichkeit vordringen zu können (vgl. ebd., S. 4).
Porträt_des_Aristoteles.jpg

Philosoph Aristoteles ( Ἀριστοτέλης)

Nach Heidegger fragt Aristoteles in gewissem Sinne zu strukturalistisch, zu sehr verhaftet der prädikativen Logik, zu formalistisch. Nachdem die Unmöglichkeit einer Definition des Seins qua prädikativer Logik festgestellt ist, müsste stattdessen übergegangen werden zu einer fundamentalontologischen Klärung der Grundlage, Bedingung der Möglichkeit einer solchen Ontologie selbst. Dies unterbleibt bei Aristoteles. Heideggers Bemühungen haben ebendies zum Ziel, die Ausarbeitung einer Meta-Ontologie, einer Grundlegung jeglicher Ontologie in einer spezifisch selbstbezüglichen Form, die er „Dasein“ nennt.

 

  1. Trotz der Defizienz der Aristotelischen Ausarbeitung der Seinsfrage war dieser nach Heidegger auf der richtigen Spur einer „prima philosophia“ als Seinswissenschaft schlechthin. Die nachfolgende Tradition hat, indem sie die Ergebnisse der Aristotelischen Metaphysik als ontologische Vorurteile unhinterfragt übernommen hat, im Unterschied zu Aristoteles auf das Fragen nach dem Sein des Seienden ganz verzichtet (Stichwort „Seinsvergessenheit“, vgl. hierzu Sein und Zeit, § 1).

 

Heideggers Fragen ist somit alles andere als „neu“, „die Tradition hinter sich lassend“, „noch mal von vorne Anfangen!“, „los jetzt!“, „das Unbegriffliche ergreifen“, „Jemeinigkeit, Unhintergehbarkeit des je Individuellen“ oder was sonst noch so durch den Äther schwirrte. Vielmehr ist es dem eigenen Anliegen nach ein „In-den-Ursprung-Zurückgehen-der-Philosophie“, ein Sich-Besinnen philosophischen Fragens, ein Zu-sich-selbst-Kommen der Philosophie in einer bestimmten, eben der Heideggerschen, meta-ontologischen Variante. Der Ausgang von der Form der Prädikation ist hierbei alles andere als nebensächlich, vernachlässigbar. Zwar möchte Heidegger nach eigenem Bekunden grundsätzlicher fragen, als die der Form des prädikativen Urteils verhaftete Metaphysik des Aristoteles dies vermochte: Er möchte die Bedingung der Möglichkeit dieser „abkünftigen“ Region „Logik“, den Untergrund der Satzform in/als eine spezifisch selbstbezüglich, modale Verfasstheit des Daseins freilegen: „Die Seinsfrage zielt daher auf eine apriorische Bedingung der Möglichkeit nicht nur der Wissenschaften, die Seiendes als so und so Seiendes durchforschen und sich dabei je schon in einem Seinsverständnis bewegen, sondern auf die Bedingung der Möglichkeit der vor den ontischen Wissenschaften liegenden und sie fundierenden Ontologien selbst (§ 3, S. 11, siehe zur Begründung der Auszeichnung eines spezifisch Seienden, dem Dasein, als dem Fragenden § 2).         Hierin ist er Meta-Ontologe, Proto-Anthropologe und hierin ist er über die Aristotelische Beschränkung auf die Form des prädikativen Urteils hinaus, da ja die Grundlagen der prädikativen Form diese notwendig übersteigen müssen.     Was jedoch die Grundmotivation seines Fragens und Zweifelns, das Thema, „Sein des Seienden“ anbelangt, bleibt Heidegger nicht nur der Form der Prädikation, sondern auch deren inhaltlicher Interpretation durch Aristoteles alias Ontologie treu. So begründet er unter § 1, 3., weshalb das Sein ein so dunkler, rätselhafter Begriff sei: „Jeder versteht: ‚Der Himmel ist blau’; ‚ich bin froh’ und dgl. Allein diese durchschnittliche Verständlichkeit demonstriert nur die Unverständlichkeit. Sie macht offenbar, daß in jedem Verhalten und Sein zu Seiendem a priori ein Rätsel liegt. Dass wir je schon in einem Seinsverständnis leben und der Sinn von Sein zugleich in Dunkel gehüllt ist, beweist die grundsätzliche Notwendigkeit, die Frage nach dem Sinn von ‚Sein’ zu wiederholen“ (Sein und Zeit, S. 4).

 

Hier setzt Adornos Kritik des ontologischen Verständnisses der Prädikation Heideggers an. Sein Verweis darauf, dass die Kopula eine Relation und kein Sein indiziere –„Der ‚Sachverhalt’ aber ist intentional, nicht ontisch. Die Copula erfüllt sich dem eigenen Sinn nach einzig in der Relation zwischen Subjekt und Prädikat. Sie ist nicht selbständig“ (Adorno: ND, Copula, S. 106) – rückt sein Denken, wohl unbeabsichtigt, in die Nähe eines neukantianisch fundierten Funktionalismus Cassirers (Begriffe als rein relationale, funktionale Konzepte, siehe hierzu etwa Cassirer: Philosophie der symbolischen Formen. Bd. 1, Einleitung) oder auch etwa des Logikers Gottlob Frege (Begriffe als ergänzungsbedürftige Funktionen, siehe hierzu etwa Frege: Funktion, Begriff, Bedeutung. Fünf logische Studien).                                                                                                          An dieser Stelle könnten wir eine grundsätzliche Diskussion einschieben. Berührt ist hier nämlich die Frage nach dem ‚Begriffsbegriff’ selbst. Ich hatte in der ersten Sitzung schon einmal darauf verwiesen, dass mit dem zugrunde gelegten Begriffsbegriff die Adornosche Argumentation für mich steht und fällt, jedenfalls hinsichtlich der Frage, was er dem Idealismus entgegenzusetzen habe.

 

Referanz:

Martin Heidegger, Was ist Metaphysik? , 1933

Martin Heidegger , Sein und Zeit ,1983

Dr. Rüdiger Safranski , Ein Meister aus Deutschland: Heidegger und seine Zeit,2001

Was macht unser Gehirn so leistungsfähig?

887227382-neuromedizin-Mozef8sF4NG

Neue experimentelle Resultate befördern und hinterfragen zugleich eine Theorie, der zufolge die neuronalen Netzwerke des Gehirns zwischen zwei Zuständen balancieren.

 

Ein Team brasilianischer Physiker hat die bis dato stärksten Hinweise darauf gefunden, dass das Gehirn auf einem Grat zwischen zwei Arbeitsweisen wandelt, ein prekärer, aber vielseitiger Zustand, der als Kritikalität bekannt ist. Die neuen Ergebnisse stellen aber auch einige der ursprünglichen Annahmen der umstrittenen Hypothese des »kritischen Gehirns« in Frage.

Wie das riesige Neuronennetzwerk unseres Gehirns Informationen über die Welt verarbeitet, ist für Neurowissenschaftler ein Mysterium. Ein zentraler Teil des Puzzles ist die Frage, wie eine einzige physische Struktur so initialisiert werden kann, dass sie mit den unzähligen Anforderungen eines Lebens zurechtkommt. »Wäre das Gehirn völlig ungeordnet, könnte es gar keine Informationen verarbeiten«, sagt etwa Mauro Copelli, Physiker an der Federal University of Pernambuco in Brasilien und Koautor der neuen Studie. »Wäre es aber zu geordnet, würde ihm die Flexibilität fehlen, um mit der Vielfalt der Welt fertigzuwerden.«

gehirn-schaedel.jpg

Der Physiker Per Bak stellte in den 1990er Jahren die Hypothese auf, das Gehirn ziehe seine Fähigkeiten aus einem Zustand namens Kritikalität. Das Konzept stammt aus der statistischen Mechanik und beschreibt Systeme, die zwischen Ordnung und Chaos schweben. Zum Beispiel eine verschneite Skipiste, die durch Lawinen zerstört wird: Irgendwo zwischen den Zuständen der Ordnung (feste Schneedecke) und des Chaos (Lawine/Schneerutsch) liegt ein Zustand, in dem alles passieren kann: Die kleinste Störung kann dann einen Schneerutsch oder eine Lawine auslösen oder etwas dazwischen.

 

»Wäre das Gehirn völlig ungeordnet, könnte es gar keine Informationen verarbeiten. Wäre es aber zu geordnet, würde ihm die Flexibilität fehlen, um mit der Vielfalt der Welt fertigzuwerden«(Mauro Copelli)

 

Aber die Ereignisse verschiedener Heftigkeit haben nicht die gleiche Wahrscheinlichkeit; vielmehr treten kleine Abgänge exponentiell häufiger auf als größere, und die wiederum exponentiell häufiger als noch größere, und so weiter. Am kritischen Punkt, wie Physiker den Zustand nennen, stehen Stärke und Häufigkeit der Ereignisse in dieser einfachen exponentiellen Beziehung. Bak argumentierte, dass es womöglich dieser kritische Zustand sei, der das Gehirn zu einem so leistungsfähigen und flexiblen Informationsprozessor macht.

Erste empirischen Hinweise darauf, dass die Theorie tatsächlich stimmen könnte, entdeckte der Biophysiker John Beggs von der Indiana University im Jahr 2003. In Schnitten des Rattenhirns beobachtete er Kettenreaktionen feuernder Neurone – so genannte »neuronale Lawinen« –, die in jener Intensitätsverteilung auftraten, die für die Kritikalität typisch ist: Zwar trat jede beliebige Lawinenstärke auf, ihre Häufigkeit aber hing exponentiell von der Stärke ab – wie ein schneebedeckter Hang am kritischen Punkt. Beggs deutete diese Potenzverteilung so, dass die Hirnschnitte selbst »kritisch« waren.

Seine Veröffentlichung löste eine Flut von weiteren Studien aus. Doch bald konnten Kritiker zeigen, dass Beggs Interpretation verfrüht war, da Potenzgesetze auch Systeme beschreiben, deren Aktivität dem Zufall folgt – wie bei den Wortfrequenzen im berühmten Gedankenexperiment mit einem Affen, der auf einer Schreibmaschine herumtippt.

Befürworter der Theorie hatten es außerdem mit zwei zusätzlichen Rätseln zu tun: Der kritische Exponent eines Potenzgesetzes – also die Zahl, die das Verhältnis zwischen kleineren und größeren Lawinen beschreibt – variiert je nach Aufbau des Netzwerks. Das aber würde die Idee eines universellen Mechanismus der Hirnfunktion widerlegen. Darüber hinaus fanden Forscher in synchronisierten Hirnwellen, die im Tiefschlaf am häufigsten auftreten, stärkere Anzeichen von Kritikalität als in den eher verteilten Aktivitätsmustern wacher tierischer Gehirne. Ein verwirrender Befund: Niemand hätte einen Zusammenhang zwischen Kritikalität und Synchronizität erwartet.

Um diesen beiden Rätseln auf den Grund zu gehen, betäubte Copellis Team Ratten mit einem speziellen Anästhetikum, das das Gehirn zwischen den Extremen der Synchronisation hin- und herschwanken lässt: manchmal synchron, wie es für den Schlaf typisch ist, und manchmal ähnlich dem Zufallsrauschen wacher Gehirne. Aufnahmen der neuronalen Erregungswellen im primären visuellen Kortex mit Dutzenden von Metallsonden zeigten, dass Stärke und Dauer der neuronalen Lawinen sowie die Beziehungen zwischen den beiden Parametern zu Potenzgesetzen mit unterschiedlichen kritischen Exponenten passten- ähnlich wie in Beggs‘ Resultaten von 2003.

 

»Man wird kaum sagen können, dass das Zufall ist«(John Beggs)

 

Darüber hinaus konnte Copllis Gruppe die Exponenten der verschiedenen Potenzgesetze in eine einfache Gleichung integrieren, wenn die Neurone moderat synchron feuerten. Diese Beziehung zwischen den Exponenten erfüllte erstmals einen strengen Test der Kritikalität, der von Kritikern im Jahr 2017 vorgeschlagen worden war. Das Gehirn der betäubten Ratten verbrachte also die meiste Zeit in der Nähe der Kritikalität.

»Es ist ein schlagender Beweis; man kann ihm nicht mehr entkommen«, sagt Beggs, der nicht an der Forschung beteiligt war. »Man wird kaum sagen können, dass das Zufall ist.« Als die Forscher aber untersuchten, wo genau der kritische Punkt lag, stellten sie fest, dass das Rattenhirn nicht zwischen den Zuständen niedriger und hoher neuronaler Aktivität arbeite, wie es die ursprüngliche kritische Hirnhypothese voraussagt; vielmehr trennte der kritische Punkt ein Aktivitätsmuster, in dem die Neurone synchron feuerten, und eines, das von weitgehend inkohärenter Aktivität gekennzeichnet war.

Diese Trennung der Aktivitätsmuster in zwei Typen könnte erklären, warum die Suche nach der Kritikalität nur gelegentlich von Erfolg gekrönt war. »Wir konnten unsere Ergebnisse mit Daten aus früheren Untersuchungen abgleichen, was darauf hindeutet, dass wir es wirklich mit etwas Allgemeinerem zu tun haben«, sagt Pedro Carelli, Copellis Kollege und Mitautor der Studie, die Ende Mai in »Physical Review Letters« erschien.

 

Unterschied zwischen betäubtem und natürlichem Gehirn

 

Allerdings arbeitet ein betäubtes Gehirn nicht auf natürliche Weise. Deshalb wiederholten die Forscher ihre Analyse an öffentlich zugänglichen Daten der neuronalen Aktivität frei laufender Mäuse. Und erneut fanden sie Hinweise darauf, dass sich das Gehirn der Tiere manchmal in jener Kritikalität befand, die den neuen Goldstandard von 2017 erfüllt. Im Gegensatz zu den betäubten Ratten aber verbrachten die Neuronen im Gehirn der Mäuse die meiste Zeit damit, asynchron zu feuern – fern vom vermeintlichen kritischen Punkt der Semisynchronität.

Copelli und Carelli geben zu, dass diese Beobachtung die Idee in Frage stellt, dass das Gehirn am liebsten in der Nähe des kritischen Punktes operiere. Sie betonen aber, dass sie die Mausdaten noch nicht abschließend interpretieren können: Was fehle, seien (sehr teure) Experimente an wachen Tieren. Denn womöglich habe schlechter Schlaf während des Experiments das Gehirn der Mäuse von der Kritikalität ferngehalten, sagte Copelli.

 

»Für einen Physiker deutet so was auf eine Art universellen Mechanismus hin«(Mauro Copelli)

 

Copellis Gruppe analysierte noch andere öffentliche Daten von Experimenten mit Affen und Schildkröten. Die Datensätze waren zwar zu klein, um die Kritikalität der vollen Potenzgleichung zu bestätigen. Doch das Team konnte das Verhältnis zwischen zwei verschiedenen Potenzexponenten berechnen, die die Verteilung der Lawinengrößen und -dauer angaben. Dieses Verhältnis – das angibt, wie schnell sich Lawinen ausbreiten – war immer das gleiche, unabhängig von der Tierart und davon, ob ein Tier in Narkose war oder nicht. »Für einen Physiker deutet so was auf eine Art universellen Mechanismus hin«, sagt Copelli.

 

Alain Destexhe vom National Center for Scientific Research (CNRS) in Frankreich, jener Kritiker, der die Gleichung mit mehreren Exponenten als Test der Kritikalität vorgeschlagen hatte, findet die Universalität der Ergebnisse »verblüffend«. Er sei sich aber nicht sicher, ob die Befürworter der Kritisches-Gehirn-Theorie deshalb Recht haben. Die Tatsache, dass neuronale Lawinen in wachen Gehirnen ähnlich skalieren wie unter tiefer Narkose – wenn sie keinen sensorischen Input bekommen –, weise nämlich darauf hin, dass die Kritikalität nichts damit zu tun habe, wie das Gehirn Informationen verarbeitet und somit auf einem anderen Aspekt der Hirndynamik gründen könnte.

Deshalb will das brasilianische Team um Copelli nun untersuchen, wie sich synchrone und asynchrone Hirnzustände auf das Verhalten von Ratten auswirken. Eine schwierige Aufgabe, denn synchrone Bursts treten nicht nur im Schlaf auf, sondern auch im wachen Hirn. Andere Forscher denken, der Schlaf könnte destabilisierte Gehirne an ihren kritischen Punkt zurückführen. Beggs etwa glaubt, dass weitere Studien eines Tages eine tiefere Verbindung zwischen psychischer Gesundheit und der Physik des Gehirns aufdecken könnten. Aber zuerst, sagt Copelli, muss das Forschungsfeld der Kritikalität fundamentale Fragen beantworten. »Die aktuelle Theorie kann unsere Beobachtungen nicht erklären«, sagt er. »Das Rennen der Modelle ist also wieder eröffnet.

 

Referanz:

http://www.jneurosci.org/content/33/44/17363

https://www.quantamagazine.org/brains-may-teeter-near-their-tipping-point-20180614/

https://www.spektrum.de/news/was-macht-unser-gehirn-so-leistungsfaehig/1655776

 

Quark-Gluon-Plasma bildet geometrische Figuren

Wenn Protonen und Neutronen mit fast Lichtgeschwindigkeit auf Goldatome treffen und sich dabei auflösen, entstehen eigentümliche geometrische Formen.

 187981.png.5070668.png

Die bizarrste Materieform der Welt, das Quark-Gluon-Plasma, bildet je nach den Umständen unterschiedliche geometrische Figuren. So entsteht je nach Kollisionsbedingungen ein kugelförmiger Tropfen der eigenwilligen »Flüssigkeit« aus Quarks und Gluonen, unter anderen Umständen eine Ellipse oder gar eine dreieckige Struktur, die an einen keltischen Dreiecksknoten erinnert. Bei den jetzt in »Nature Physics« veröffentlichten Experimenten ließ die Phenix-Kollaboration am Relativistic Heavy Ion Collider (RHIC) in New York verschiedene Kombinationen von Protonen und Neutronen in dem Beschleuniger mit Goldkernen kollidieren. Dabei stellten sie fest, dass die expandierenden Quark-Gluon-Plasmen der auftreffenden Elementarteilchen miteinander komplexe Interferenzmuster bilden und so die geometrischen Muster erzeugen.

Viele Fachleute vermuten, dass bei solchen Kollisionen für einen kurzen Moment die allererste Materie des Universums erneut erzeugt wird. im Quark Gluon-Plasma lösen sich Neutronen und Protonen in ihre Bestandteile auf – für einen kurzen Moment sind die Quarks und die Gluonen, Träger der Wechselwirkung zwischen ihnen, aus ihrem Fermionengefängnis befreit. Sie bilden eine superheiße exotische Flüssigkeit, die ins umgebende Vakuum expandiert und mit anderen Plasmen wechselwirkt. Wie das Phenix-Team schreibt, erzeugte durch diesen Mechanismus ein einzelnes Proton nach der Kollision ein kugelförmig expandierendes Plasma, ein Deuteron – also ein Proton und ein Neutron – die Ellipse und ein Helium-3-Kern durch die Interferenz dreier Plasmatropfen den keltischen Knoten.

Lars Fischer

Referanz:

https://www.spektrum.de/news/quark-gluon-plasma-bildet-geometrische-figuren/1613440

Der Nürnberger Prozess

nuernbergbankakggjpg100__v-gseapremiumxl

Hermann Göring und Rudolf Heß auf der Anklagebank

Als der Nürnberger Prozess am 20. November 1945 begann, waren die drei größten Nazi-Verbrecher schon tot: Adolf Hitler, Reichsführer-SS Heinrich Himmler und Propagandaminister Joseph Goebbels brachten sich selbst um und entzogen sich so ihrer Verantwortung. Aber auch ohne diese drei Männer auf der Anklagebank schrieb der Nürnberger Prozess Geschichte. Erstmals fand ein internationaler Strafprozess statt, der weit entfernt war von einem Prozess des Siegers über die Besiegten. Diese Idee findet sich 50 Jahre später im Internationalen Kriegsverbrechertribunal der Vereinten Nationen wieder.

 

Warum ein Prozess?

Nie zuvor in der Menschheitsgeschichte hatte eine siegreiche Nation oder ein Bündnis den Verlierer eines Krieges vor ein Gericht gestellt und ihm den Prozess gemacht.

Dass die Alliierten den deutschen Verantwortlichen den Prozess machten, hatte vor allem drei Gründe: Zum einen zeigten die Alliierten damit, dass sie nicht dem deutschen Volk als Kollektiv die Schuld für die grausamen Verbrechen Nazi-Deutschlands zuschrieben, sondern einzelnen Handelnden.Zum anderen wollten sie den gerade erst von einer Diktatur befreiten Deutschen anhand eines fairen Gerichtsprozesses zeigen, wie eine Demokratie funktioniert.Im Laufe des Prozesses bekam das deutsche Volk zudem gnadenlos das ganze Ausmaß von Hitlers Wahn und dessen schreckliche Folgen vor Augen geführt. Viele Deutsche sagten später, sie hätten erst während des Nürnberger Prozesses von den Gräueltaten an den Juden und anderen Minderheiten erfahren.

860x860.jpg

Adolf Hitler macht im April 1932 Wahlkampf im Berliner Lustgarten. Links hinter ihm steht der Berliner Gauleiter Joseph Goebbels.
(Foto: SZ)

Stalin will alle Nazis erschießen lassen

Der Plan, die verantwortlichen Nationalsozialisten vor Gericht zu stellen, stand erst relativ kurz vor Beginn des Nürnberger Prozesses fest und war auch nicht unumstritten: Der britische Premier Winston Churchill wollte die NS-Führung zunächst zu „Outlaws“, also u „Vogelfreien“, erklären und auf der Stelle erschießen lassen.

Der sowjetische Diktator Josef Stalin ging bei der Konferenz von Teheran 1943 noch weiter und plädierte dafür, den gesamten deutschen Generalstab – er ging von 50.000 Mann aus – ohne Prozess zu liquidieren.Auch die Franzosen waren zunächst nicht an einem Prozess interessiert. Sie befürchteten, dass ein solcher auch Mittäter in Frankreich hätte entlarven können.

Erst im Juni 1945 gelang es Robert H. Jackson, Richter am Obersten Bundesgericht der USA und späterer Hauptankläger im Nürnberger Prozess, die übrigen drei Alliierten von einem Prozess zu überzeugen.

Im Londoner Abkommen am 8. August 1945 einigten sich die vier Siegermächte auf die Grundregeln für das Verfahren und auf die Anklagten.In Nürnberg, der Stadt, in der Hitler sich auf seinen Reichsparteitagen inszeniert hatte, sollte die hässliche Seite des Nationalsozialismus gezeigt werden.

Wer soll angeklagt werden?

Der Prozess in Nürnberg sollte der erste in einer Reihe von Prozessen gegen verantwortliche Nationalsozialisten werdenDoch es kam nur noch zu zwölf Nachfolgeprozessen gegen Ärzte, Juristen, SS- und Polizeiangehörige, Militärs, Manager und Regierungsfunktionäre.

Der Hauptprozess gegen 24 Hauptkriegsverbrecher begann am 20. November 1945, also bereits ein knappes halbes Jahr, nachdem Deutschland kapituliert hatte.Die Alliierten hatten lange diskutiert, wer auf die Anklagebank gehörte und wer nicht.Die Briten, die dem Prozess ohnehin skeptisch entgegenblickten, wollten die Liste der Angeklagten möglichst kurz halten und nur Ex-Reichsmarschall Hermann Göring, Außenminister Joachim von Ribbentrop, den Arbeitsfrontführer Robert Ley und Rudolf Heß, bis 1941 Hitlers Stellvertreter, anklagen.Schließlich einigte man sich darauf, hochrangige nationalsozialistische Minister, Funktionäre und Militärführer, die sogenannten Hauptkriegsverbrecher, anzuklagen.Auch Wirtschaftsführer wurden auf die Liste gesetzt. Besonders umstritten waren die Anklagen von Reichsbankpräsident Hjalmar Schacht und Konzernchef Gustav Krupp von Bohlen und Halbach.Viele bezweifeln bis heute, dass sie in die Reihe der anderen Angeklagten gehörten, die teilweise den Befehl zur Ermordung von tausenden Menschen gegeben hatten.

 

nuernberggoeringdpagjpg100__v-gseapremiumxl

Hermann Göring vor dem Militärgericht

 

Drei Plätze auf der Anklagebank bleiben leer

Die Angeklagten mussten sich in vier Punkten vor dem Internationalen Militärtribunal verantworten:

 

  1. Verschwörung gegen den Weltfrieden
  2. Planung, Entfesselung und Durchführung eines Angriffskrieges
  3. Verbrechen und Verstöße gegen das Kriegsrecht
  4.   4.Verbrechen gegen die Menschlichkeit

 

Robert Ley, Führer der Deutschen Arbeitsfront, der in allen vier Punkten angeklagt war, entzog sich dem Prozess, indem er sich Ende Oktober 1945 im Nürnberger Gefängnis das Leben nahm.

Auch ein anderer Stuhl auf der Anklagebank blieb leer: Martin Bormann, Leiter der Partei-Kanzlei der NSDAP und zuletzt Hitlers rechte Hand, war bei Kriegsende nicht auffindbar und wurde deswegen in Abwesenheit zum Tod durch den Strang verurteilt.

Erst 1972 wurde seine Leiche zufällig bei Bauarbeiten in Berlin gefunden, gestorben ist er aber wahrscheinlich schon in den letzten Kriegstagen.

Bundesarchiv_Bild_183-H28422,_Reichskabinett_Adolf_Hitler

Hermann Görring und Adolf Hitler

Und noch ein dritter Anklagestuhl wurde nicht besetzt: der von Gustav Krupp von Bohlen und Halbach, Aufsichtsratsvorsitzender der Krupp AG. Mit ihm sollte symbolisch die deutsche Rüstungsindustrie angeklagt werden.

Das Verfahren gegen Krupp wurde allerdings eingestellt, weil er zu krank für ein Verfahren war. So saßen schließlich nur 21 Angeklagte vor Gericht.

 

Schockierende Filmaufnahmen

Zu Beginn des Nürnberger Prozesses war keiner der Angeklagten bereit, Verantwortung für die Kriegsverbrechen auf sich zu nehmen. Alle bezeichneten sich im Sinne der Anklage als nicht schuldig.

Nach einer beeindruckenden Eröffnungsrede des amerikanischen Chefanklägers Robert H. Jackson, der zwischen nationalsozialistischen Verantwortlichen auf der einen und dem Großteil des deutschen Volkes auf der anderen Seite unterschied, gestaltete sich der Verhandlungsverlauf vor dem Internationalen Militärtribunal zunehmend langatmig und zäh.

Das lag vor allem daran, dass der britische Richter Geoffrey Lawrence drei Tage nach Beginn des Prozesses anordnen ließ, dass alle Beweismittel im Gerichtssaal vorgelesen werden mussten.

Die Ankläger ließen auch Augenzeugen aussagen – und sie zeigten bewusst schockierende Filmaufnahmen von Gewaltszenen aus dem Krieg. Ihr Sinn lag allerdings weniger darin, als Beweismittel zu dienen.

Sie sollten der deutschen Bevölkerung, etwa über die „Deutsche Wochenschau“ in den Kinos, zeigen, welches Unheil die Nationalsozialisten verursacht hatten.

Die Aufnahmen von Massenerschießungen, Folterungen und den unglaublich schrecklichen Zuständen in Konzentrationslagern ließen auch die Angeklagten nicht kalt:

Der Generalgouverneur von Polen, Hans Frank, fing nach einer Filmaufnahme aus einem Konzentrationslager an zu weinen, als Gefängnispsychiater Gustave M. Gilbert seine Zelle betrat:

„Wir haben wie Könige gelebt und an diese Bestie geglaubt! Lassen Sie sich von niemandem erzählen, dass sie von nichts gewusst haben.

Jeder hat gefühlt, dass da furchtbare Dinge in diesem System waren, auch wenn wir die Einzelheiten nicht gekannt haben. Man wollte sie nicht kennen. Es war eben zu bequem, oben zu schwimmen und zu glauben, alles sei in Ordnung.“

Tatsächlich betonten die meisten Angeklagten immer wieder, von nichts gewusst zu haben und/oder nur Befehle ausgeführt zu haben – selbst Göring, dem man zweifelsfrei anderes nachweisen konnte, versicherte, er habe die „furchtbaren Massenmorde auf das Schärfste“ verurteilt.

 

Von Nürnberg nach Den Haag

Am Ende standen elf Todesurteile: in Abwesenheit Bormann, Göring, von Ribbentrop, Rosenberg, Frick, Keitel, Jodl, Kaltenbrunner, Frank, Streicher, Sauckel und Seyß-Inquart, die am 15. Oktober 1946 vollstreckt wurden. Göring hatte sich kurz zuvor mit einer bis zum Schluss versteckt gehaltenen Zyankali-Kapsel das Leben genommen.Der einstige Stellvertreter Hitlers, Rudolf Heß, der sich vor Gericht höchst verwirrt gezeigt und den sogar die Staatsanwaltschaft für nicht verhandlungsfähig erklärt hatte, wurde zu lebenslangem Gefängnis verurteilt.Er nahm sich 1987 mit 93 Jahren im Kriegsverbrechergefängnis Spandau das Leben. Drei Angeklagte (Fritzsche, von Papen und Schacht) wurden freigesprochen.Es dauerte lange, bis wieder ein ähnlicher Prozess stattfand, auch wenn die Anlässe nicht gefehlt hätten. 1993 rief der UN-Sicherheitsrat einen Strafgerichtshof für das frühere Jugoslawien in Den Haag ins Leben.1994 wurde ein Gericht in Arusha, Tansania, eingesetzt. 2002 nahm das Internationale Kriegsverbrechertribunal in Den Haag schließlich seine Arbeit auf. Es kann als Ironie der Geschichte bezeichnet werden, dass die USA heute einer seiner härtesten Gegner sind, während Deutschland es befürwortet.

 

 Mareike Potjans

 

Referanz:

https://www.planet-wissen.de/geschichte/deutsche_geschichte/nachkriegszeit/pwiedernuernbergerprozess100.html

Sensorhandschuh lehrt Roboter das Fühlen

726fb948-cbb8-4674-94cc-f3a83d281215

Intelligente Maschinen sind Projektionen des menschlichen Denkorgans – diese leistungsstarken Gehirne skeptisch zu kontrollieren, ist dem Menschen allerdings nicht mehr möglich. (Bild: Matt Cardy / Getty Images)

 

Bisher sind Roboter recht gut im Sehen, nicht aber im Ertasten von Informationen – das aber könnte sich nun ändern. Denn Forscher haben einen Sensorhandschuh entwickelt, der schnell und günstig den charakteristischen Tasteindruck von Objekten erfassen kann. Durch simples Greifen und Betasten eines Gegenstands stellt das System ein hochaufgelöstes Muster des sich verändernden Drucks auf verschiedene Handbereiche zusammen. Aus diesen Daten wiederum kann ein lernfähiger Algorithmus erkennen, welches Objekt gerade gehalten wird und wie schwer es ist. Die mit diesem Handschuh gesammelten Tastdatensätze könnten so helfen, Robotern und Prothesen mehr Gefühl für ihre Umwelt zu verleihen.

 

Unser Tastsinn liefert uns nicht nur wertvolle Informationen über die Beschaffenheit von Materialien und Objekten, er hilft uns auch dabei, beim Handhaben von Gegenständen das richtige Maß an Kraft und Kontakt einzusetzen. „Wenn wir ein Objekt berühren, können wir durch Befühlen feststellen, um was es sich handelt“, erklärt Erstautor Subramanian Sundaram vom Massachusetts Institute of Technology (MIT). „Roboter haben diese Art des Feedbacks nicht. Bisher gibt es keine Sensorplattformen und große Datensätze, durch die Roboter die Tastinformation bekommen könnten, wie sie der Mensch bei Betasten von Objekten nutzt.“ Das Problem: Bisherige Sensorhandschuhe sind extrem teuer und besitzen meist eine noch zu geringe Sensordichte. Robotern und lernfähigen Algorithmen stehen dadurch nicht genügend Daten zur Verfügung, um sich aus den Tasteindrücken ein stimmiges Bild zu machen.

19-05-29-handschuh.jpg

Muster aus wachsenden und schrumpfenden Punkten

Das hat sich nun geändert. Denn Sundaram und sein Team haben einen Sensorhandschuh entwickelt, der aus einfachen, günstigen Komponenten besteht und dennoch eine große Menge an Tastdaten liefern kann. Basis des Handschuhs ist ein Textilmaterial, das mit einem leitfähigen, flexiblen Polymerfilm beschichtet ist. Dieser Film verändert bei Druck seinen Widerstand und damit seine Leitfähigkeit. Über diesem Film liegt ein Gitter aus 64 dünnen Elektrodenfäden, die sich an 548 Punkten der Hand- und Fingerinnenseiten kreuzen. Diese Punkte bilden die Tastsensoren, indem die Elektroden dort die jeweilige Veränderung der Leitfähigkeit im Polymerfilm abgreifen. „Jedes Sensorelement reagiert schon auf kleine Kräfte ab rund 25 Millinewton und erreicht dann jenseits von 0,8 Newton seine Sättigung“, berichten die Forscher. Obwohl dieser Handschuh damit hochaufgelöste Tastdaten liefere, bestehe er aus kommerziell erhältlichen Materialien, die insgesamt nur zehn US-Dollar kosten.

 

Wenn nun der Träger dieses Tasthandschuhs ein Objekt ergreift, registriert jeder Sensor den Druck, den dieses auf die Handfläche oder den Finger an dieser Stelle ausübt. Auf Basis dieser Daten erstellt ein Programm taktile Karten: Unterschiedlich große Punkte zeigen, wo und wie stark die Hand zugreift und wie sich dieses Muster bei wechselnden Griffen und Tastaktionen verändert. Auf diese Weise entsteht ein Video, das den charakteristischen Tasteindruck beim Befühlen des Objekts wiedergibt – und so seine Identifizierung ermöglicht. Denn ein in der Hand gehaltener Stift erzeugt beispielsweise ein anderes Tastmuster als eine Tasse oder ein Ball. Anhand dieser Muster lässt sich nicht nur erkennen, wie viel Druck welche Handregion ausübt, sondern auch, welche Bereiche beim Greifen und Betasten involviert sind, wie die Forscher erklären. Das wiederum erlaubt Rückschlüsse auf die Form und das Gewicht des Objekts.

 

Tastsinn für Roboter

Im Rahmen ihres Experiments nutzten Sundaram und sein Team den Sensorhandschuh, um 26 verschiedene Objekte eingehend zu betasten und so rund 135.000 Video-Frames an Tastmustern zu sammeln. „Meines Wissens nach ist dies einer der größten Datensätze dieser Art“, kommentiert die nicht an der Studie beteiligte Forscherin Giulia Pasquale von der Universität Genua. „Dieser Handschuh eröffnet damit vielversprechende Aussichten für robotische Anwendungen.“ Denn solche umfangreichen Tastdaten-Sammlungen ermöglichen es nun Robotern und anderen lernfähigen Systemen, die Eigenheiten des Greifens und der taktilen Objekterkennung zu trainieren und zu lernen. Dass dies bereits mit diesem ersten Testdatensatz funktioniert, haben die Forscher bereits demonstriert: Sie fütterten ein neuronales Netzwerk mit den Tastmuster-Videos und programmierten es darauf, sich aus jedem einem Objekt zugeordneten Satz jeweils sieben möglichst unterschiedliche Muster herauszusuchen. „Das ähnelt der Art und Weise, wie ein Mensch verschiedene Griffweisen ausprobiert, wenn er ein Objekt durch Tasten erkundet“, erklärt Co-Autor Petr Kellnhofer vom MIT.

Im Test gelang es dem so trainierten lernfähigen Algorithmus, Objekte wie eine Schere, einen Tennisball oder eine Getränkedose zu 76 Prozent korrekt zu identifizieren – allein anhand der charakteristischen Tastmuster. Über sie konnte das System auch das Gewicht der meisten Objekte bis auf rund 60 Gramm genau abschätzen, wie die Forscher berichten. Und noch etwas verrieten die mit dem Sensorhandschuh gesammelten Tastmuster: „Wir zeigen zum ersten Mal quantitativ, wie verschiedene Handregionen beim Greifen kollaborativ zusammenarbeiten“, berichten Sundaram und seine Kollegen. So nutzen wir beispielsweise bei den meisten Präzisionsgriffen Fingerspitzen und Daumen gemeinsam, während wir beim Zupacken primär die Innenflächen von Handfläche und Fingern einsetzen. „Unsere Ergebnisse demonstrieren damit den breiten Nutzen solcher hochdimensionaler taktiler Sensoren“, konstatieren die Forscher. Vor allem die Robotik und Prothesentechnik könnten ihrer Ansicht nach von solchen Datenhandschuhen und den mit ihnen gesammelten Tastdaten profitieren. Aber auch die bisher meist auf visuellen Daten basierende Objekterkennung könnte so um zusätzliche Sinne erweitert werden.

Referanz:

Subramanian Sundaram (Massachusetts Institute of Technology, Cambridge) et al., Nature, doi: 10.1038/s41586-019-1234-z

 

Wem gehört der Mond?

AlanShepard-Apollo14_as14-68-9405.jpg.5134368

 

Noch immer ist schlecht geregelt, wer auf dem Mond was tun darf. Der Weltraumvertrag aus dem Jahr 1967 lässt eine große Lücke – und ein eigener, allseits akzeptierter Mondvertrag kam bisher nicht zu Stande.

Am 19. Mai 2011 betritt die 74-jährige Joann Davis ein Restaurant in Kalifornien, mit einem reiskorngroßen Stück Mond in ihrer Tasche. Es ist ein Erbstück: Ihr längst verstorbener Mann war Ingenieur bei Apollo 11 und soll das in einem Briefbeschwerer eingebaute Mondgestein von Neil Armstrong persönlich erhalten haben. Joann Davis setzt sich an einen Tisch und begrüßt einen Herrn, den sie bisher nur von mehreren Telefonaten kennt.

 

Sie hält ihn für einen Händler für Raumfahrt-Artefakte, schließlich hat sich der Mann als das ausgegeben. Tatsächlich ist er ein von der NASA beauftragter Ermittler, der den Handel mit Mondgestein verhindern soll. Die verstörte Joann Davis wird von mehreren bewaffneten Polizisten aus dem Restaurant eskortiert und über eine Stunde auf dem Parkplatz befragt. Das Mondgestein kehrt letztlich zurück in die Obhut der US-Raumfahrtbehörde.

Die Szene klingt nach einem Hollywoodfilm, hat sich laut US-Medienberichten aber wirklich so zugetragen. Der Handel mit Mondgestein, das von US-Astronauten zur Erde gebracht wurde, ist bis heute illegal. Eine Ausnahme sind Mondmeteoriten, die täglich auf die Erde fallen, und die wenigen Brocken, die sowjetische Sonden zur Erde brachten – sie darf man legal verkaufen.

 

Der Weltraumvertrag von 1967

Klar geregelt ist auch der Umgang mit Material, das wissenschaftlich untersucht wird: Die NASA hat im Lauf der vergangenen Jahrzehnte hunderte millimetergroße Bröckchen an Regierungen und Forscher aus aller Welt verteilt, doch ist die Raumfahrtagentur formal weiter deren Eigentümer. Damit darf US-Mondgestein bis heute weder in Privatbesitz gelangen noch veräußert werden.Der Fall von Joann Davis zeigt, wie außergewöhnlich ein Stück vom Mond bis heute ist – und wie nervös die Vereinigten Staaten mit Blick auf die grauen Körnchen sind. International umgibt den gesamten Mond bis heute ein juristisches Vakuum, das 50  Jahre nach der ersten Mondlandung kaum noch zeitgemäß wirkt. Denn der Mond gehört gewissermaßen allen und gleichzeitig niemandem – was schon bald ausgenutzt werden könnte.Zu Beginn des Raumfahrtzeitalters waren die Nationen sich noch recht einig darüber, dass im All faire Regeln für alle gelten sollten. Immerhin war das Zeitalter des irdischen Kolonialismus in den frühen 1960er Jahren gerade erst zu Ende gegangen. Vor diesem Hintergrund unterzeichneten 1967 ganze 89 Staaten den Weltraumvertrag; bis heute haben ihn 107 Länder unterzeichnet und ratifiziert.

 

 

Der Run auf Rohstoffe

Sie verpflichten sich darin dazu, keinen Himmelskörper dem eigenen Territorium zuzuschlagen, dort Militärstützpunkte zu bauen oder Waffen zu testen. All das war zwischen den Raumfahrtmächten Konsens, als Neil Armstrong und Buzz Aldrin im Juli 1969 die US-Flagge in den Grund in des Mare Tranquillitatis rammten. Sie diente lediglich als Symbol für den Besuch der US-Astronauten, die stellvertretend für alle Menschen dort landeten.

 

Die Unterzeichnung des Weltraumvertrags gilt seines allgemeinen Charakters wegen als eine Zeitenwende – und als geschichtlich einmaliges Ereignis. Später gelang es nie wieder, bei einem Vertragstext über den Weltraum so viel Eintracht herzustellen: Als nur zwölf Jahre später eine riesige Lücke im Vertrag den Mond betreffend geschlossen werden sollte, scheiterte dieses Vorhaben.Bei der Lücke geht es um wirtschaftliche Interessen: Zwar gehört der Erdtrabant gemäß dem Weltraumvertrag allen, doch wem steht der Gewinn zu, den ein Staat oder ein Unternehmen macht, wenn er hier Bodenschätze fördert? All diese Fragen sind bis heute ungeklärt.Dabei haben mehrere Raumfahrtstaaten in den vergangenen Jahren ein immenses Interesse am Mond entwickelt, das längst nicht nur wissenschaftlich zu begründen ist: Firmen wie Planetary Ressources oder Deep Space Industries planen, Rohstoffe auf Asteroiden und eines Tages auch auf dem Mond abzubauen. Mehrere Staaten haben zudem nationale Weltraumgesetze geschaffen, um Geldgeber dieser neuen Industrien nötige Sicherheiten zu geben. Forscher in den USA und China arbeiten derweil an Verfahren, auch aus Mondgestein Rohstoffe zu gewinnen. Dazu gehören vor allem Sauerstoff und Wasser, um künftige Außenposten auf der Oberfläche oder die geplante Raumstation in Mondnähe zu versorgen.Wem genau das Material gehört, das da abgebaut und verarbeitet werden soll, lassen die bisherigen Gesetze jedoch offen: Der Mond und andere Himmelskörper seien eben Allgemeingut der Menschheit – und damit auch für jeden nutzbar, sagen die Befürworter des Bergbaus. Der Weltraumvertrag von 1967 ist dabei recht zahnlos: Zwar verpflichten sich die Unterzeichnerstaaten, die Rohstoffe im All zum Wohle aller Menschen zu erschließen – aber es gibt keine Möglichkeiten für rechtliche Sanktionen, wenn ein Staat eigennützige Ziele verfolgt oder sich einfach ganz aus dem Vertrag zurückzieht.

 

Der gescheiterte Mondvertrag

Zwar ist längst noch nicht klar, ob sich der Abbau von Rohstoffen im All jemals rechnen könnte. Doch wenn es eines Tages gelänge, dürfte ein Konflikt zwischen Unternehmen oder Staaten besonders um begrenzte Ressourcen eines Himmelskörpers vorprogrammiert sein. Wasser ist auf dem Mond beispielsweise eventuell nur in wenigen Kratern an seinen Polen vorhanden, in deren unmittelbarer Nähe es lediglich wenige Landemöglichkeiten gibt. Hier könnte es also mittelfristig zu einem Wettlauf zwischen verschiedenen Interessengruppen kommen.1979 sollte es hierzu eine genauere Regelung geben, ein entsprechender Mondvertrag-Entwurf machte sehr konkrete Aussagen: Der Bergbau sollte etwa von einer internationalen Organisation überwacht werden, beispielsweise den Vereinten Nationen, die dann Abbaulizenzen vergeben würden. Auch sollten das Wissen über Rohstoffvorkommen sowie der Gewinn aus der Förderung mit allen anderen Staaten geteilt werden. Die industrialisierte erste Welt sollte damit nicht auch noch im All die Chancen der Entwicklungsländer durch ihren technologischen Vorsprung schmälern.

 

Doch all diese Ideen klangen vielen Regierungen schon vor 40 Jahren zu utopisch: Weder die USA noch Russland, China, Japan oder Indien haben den Mondvertrag bis heute unterzeichnet – und damit abgesehen von Frankreich keiner der wesentlichen Staaten in der Raumfahrt.

Von  Karl Urban

Referanz:

https://www.spektrum.de/frage/wem-gehoert-der-mond/1648742