Dienstag, 23. Dezember 2014

unterhaltsam manipuliert

Wie war das: Ein von RTL beauftragter Reporter hat sich „undercover“ und in „verdeckter Recherche“ unter „PEgIdA“-Demonstranten gemischt, und ausländerfeindliche Sprüche in die Linse einer TV-Kamera des NDR geklopft. Prompt ist von journalistischer Manipulation die Rede, von künstlich provozierter Hetze zugunsten dramatisierter Berichterstattung. 

So etwas kann passieren. In einem Zeitalter des „Infotainment“, in dem angeblich auch knallharter, seriöser Journalismus unbedingt auf unterhaltsame Art und Weise dargestellt werden muss, um konkurrenzfähig zu bleiben. Das war jedenfalls das Hauptargument dafür, dass ARD und ZDF kürzlich für jeweils um die 20 bis 30 Millionen(!) Euro ihre Hauptnachrichten – rein optisch – aufgepeppt hatten.

Wenn man will, kann man hier schon die Frage stellen, ob das bereits eine Form von Manipulation ist. Wie subtil und unauffällig beginnt sie, und wie offen(-)sichtlich muss sie sein, um gerade deshalb nicht bemerkt zu werden?

Beispielhaft eine Szene aus irgendeiner „RealityDoku“ irgendeines Privatsenders, bei der es vordergründig darum geht, in Not geratenen Familien das komplette Haus zu renovieren und nagelneu einzurichten:

Zu sehen ist eine Hausfrau, die aufgrund des Klingelns an der Haustüre mit verwundertem Blick („Wer kann das nur sein?“) durch ihren Flur geht, scheinbar ahnungslos die Türe öffnet, und völlig verdutzt das Renovierungsteam des TV-Senders erblickt, jubelierende Szene gegenseitiger Begrüßung, hoffnungsgetränkte Hintergrundmusik, Klappe. Was kann an dieser Szene nicht ganz stimmen?

Nun… wie wurde die Hausfrau im Hausflur ihres Hauses eigentlich gefilmt? Wohl doch mit einem Kamerateam, das schließlich vorher schon zu Besuch gekommen sein und Position bezogen haben muss. Die gesamte Szenerie scheinbarer Ahnungslosigkeit, Verwunderung und Überraschung ist zu rein dramaturgischen Zwecken künstlich produziert und wer-weiß-wie-oft geprobt worden.

Eine Manipulation im ganz Kleinen, bereits mit der ersten Szene, so lapidar, dass sie nur bemerkt wird, würde der Zuschauer sich entsprechende Gedanken machen. Doch dazu werden solche „RealityDokus“ natürlich weder produziert noch eingeschaltet, sondern im Gegenteil zum innerlichen „Abschalten“, der blanken Unterhaltung wegen.

Nicht viel anders mit dem ganzen Rest, dem TV-Programm generell und insgesamt, das an nichts anderem ausgerichtet wird, was die Masse – vermeintlich – sehen will. Heraus kommt dabei, was wir sehen sollen. Und wenn man sich auf diese Weise lahm legen lässt, verpasst man, dass dazu auch das gehört, was unter dem Schlagwort „Wissen“ gesendet wird: „Infotainment“ zu Unterhaltungszwecken.


Dienstag, 16. Dezember 2014

radikal abendländisch

Heute in ungewohnter, aber gebotener Kürze zum Thema „PEgIdA“: „Patriotische Europäer gegen die Islamisierung des Abendlandes“. So, so. Da „demonstrieren“ ein paar Menschen unter irgendeinem Motto, man ist geneigt, das mit einem kurzen Kopfschütteln zu ignorieren, und bekommt es statt dessen von Funk und Fernsehen penetrant auf die Augen und in die Ohren gedrückt.

Da brüllt ein Radioreporter ins Mikrofon, als würde er sein eigenes Wort nicht verstehen, als befände er sich mitten in einem Katastrophengebiet, einem gerade vorbeigezogenen Tornado oder abebbenden Tsunami. Aber nein: „Hinter mir befinden sich circa 150 PEgIdA-Anhänger“. Achwas. Einhundertfünfzig gleich. Möge der Reporter einfach zwanzig Meter zur Seite gehen, müsste er nicht so schreien. Doch das ginge natürlich auf Kosten einer gewissen Dramatik.

Aus dem Autoradio tönt dann weiter: „Das Gefährliche an dieser PEgIdA-Bewegung ist der Mix aus berechtigten Tatsachen und Stammtischparolen“. Ja, enorm gefährlich. Mir wird Angst und Bange. Einen solchen Mix hört und sieht man alle Nase lang, sobald man den Fernseher einschaltet, in jeder Talkshow und jeder Wissenschaftsdokumentation.

Wie man weiter erfahren darf, würden die PEgIdA-Anhänger betonen, dass „viele in der Mittelschicht so denken“, was  jedoch „ihr Anliegen noch lange nicht demokratisch macht“. Das stimmt. Zwar bestimmen die Verkaufszahlen die MusikCharts und die Einschaltquoten das TV-Programm, aber Quantität und Qualität sind eben nicht immer identisch, geschweige denn, dass es irgendetwas „demokratisch machen“ würde.

Was mich persönlich dagegen etwas stutzig macht, ist die Bewegungsrichtung der Aktionisten „gegen die Islamisierung des Abendlandes“. Kann ich mich zu so jemandem ins Auto setzen, fährt er mich bitte dorthin und zeigt es mir, das bedrohte Abendland, und an welchen Stellen genau es „islamisiert“ wird? Oder käme er dann darauf, dass das gelobte Abendland nur im Kopf existiert – und dass das der Ort ist, wo auf bedrohliche Weise etwas nicht ganz stimmt?

Samstag, 6. Dezember 2014

fraglich benommen

Regelmäßig wird seit Jahren immer wieder festgestellt: „Gutes Benehmen ist wieder in“, gerade auch bei jungen Menschen: Höflichkeit, „gute Manieren“, „gepflegte Umgangsformen“, und so weiter. Sogar Unternehmer und Manager strömen in „Benimm“-Seminare. Gleichzeitig spart man sich die enorme Mühe, Mitteilungen „Mit freundlichen Grüßen“ zu beenden, und begnügt sich mit „MfG“.

Seit dem ich in Bayern auf dem Land lebe, irgendwo am äußersten süd-östlichen Ende Deutschlands, habe ich mich über die Jahre hinweg daran gewöhnt, dass hier jeder jedem ein „Grüß Gott“ entgegen murmelt, auch völlig unbekannten Menschen. Eine Floskel – oder sagen wir: Geste – reiner Höflichkeit.

Schon in der Grundschule lernen die Kinder hier, dass man auch für unsympathische Menschen ein freundliches „Grüß Gott“ zu erübrigen hat. Da, wo ich herkomme, aus dem bodenständigen Ruhrgebiet, würde man das für unehrlich halten. Höflichkeit kann also offenbar über Ehrlichkeit rangieren. Doch das kennt ohnehin jeder Mann, der von seiner Frau gefragt wird, ob ihm ihre neue Handtasche gefällt.

Wo doch immer wieder gerne von „Werten“ gesprochen und ein „Werteverfall“ beklagt wird: Welchen Wert hat bloße Höflichkeit, wenn sie unehrlich ist? Welchen Wert haben Floskeln wie „VG“ („Viele Grüße“) oder „MfG“ („Mit freundlichen Grüßen“), wenn man weiß, dass sich dabei jemand sogar dieses bisschen „Mühe“ sparen will. Doch schon dafür muss man heute fast noch dankbar sein.

Ohnehin handelt es sich meist um Relikte längst vergangener Zeiten. Männer, die auf der Straße höflich ihren Hut gezogen haben, gab es allenfalls noch in den 1950er Jahren. Kopfbedeckungen sind heute dagegen meist Jugendlichen vorbehalten, die ihre Schlabbermützen und Baseballkappen allerdings nur zum Duschen und Schlafen abnehmen, wenn überhaupt.

Wenn man bei diesen Diskussionen über einen „Werteverfall“ nicht aufpasst, bleibt irgendwann nur wenig übrig, was noch verfallen kann.

Da ist zum Beispiel diese Diskrepanz zwischen „altmodisch“ und „zeitgemäß“. Soll Mann – in Zeiten der Emanzipation – Frauen tatsächlich noch die Türe aufhalten, den Vortritt lassen, in der U-Bahn den eigenen Sitzplatz anbieten oder helfen, die Einkaufstüten zum Auto zu tragen?

Vor ein/zwei Jahren begann man im Privatfernsehen damit, dass das anwesende Publikum nicht nur klatscht und kreischt, sondern sich bitte für jeden dahergelaufenen Möchtegern-Star von den Sitzen erheben soll. Eine Geste höchsten Respekts, die früher extrem selten praktiziert wurde, gegenüber Menschen mit wirklich hervor(-)ragenden Lebensleistungen. Eine Geste, die ihre Bedeutung so komplett verliert. Ein Wert, der nicht nur verfällt, sondern mutwillig zum Verfallen gebracht wird.

Laut neuestem „Benimm“ sagt man nicht einmal mehr „Gesundheit“ zu jemandem, der gerade niesen musste. Der Wunsch, er möge trotz Nieser gesund sein oder werden, war früher höflich, jetzt ist er verzichtbar. Vielmehr im Gegenteil: Der Kränkelnde sollte sich für seinen Nieser gefälligst entschuldigen und der Angenieste wortlos darüber hinwegsehen. Und „Guten Appetit“ hat man sich auch nicht mehr zu wünschen, denn schließlich sitzt man nicht nur wegen seines Appetits gemeinsam am Esstisch. Hoffentlich darf man noch „Frohe Weihnachten“ aussprechen..

Dabei ist „gutes Benehmen“ trotz aller Relativität relativ einfach. Man richte sich nach der Definition des Begriffes „Gentleman“ (von dem die weibliche Form bezeichnenderweise nicht gebräuchlich ist): „Ein Gentleman ist jemand, der alles dafür tut, damit sich die Menschen in seiner Umgebung wohl fühlen“.

Freitag, 28. November 2014

zwanghaft physikalisch

Es ist manchmal erschreckend, mit welcher Dreistigkeit unter dem Schlagwort „Wissen“ und aufgepapptem Gütesiegel „Wissenschaft“ ein Unsinn verbreitet wird, der fast schon bestraft gehört. Und das nun auch noch mittels der zünftigen Gladionsfigur Stephen Hawking, der den Unsinn glaubhaft(er) machen soll.

Zurzeit läuf auf irgendeinem Spartenkanal die Dokumentationsreihe „Stephen Hawking - Urknall oder Schöpfung“. Laut Sender-Information: „geht der berühmte Physiker Stephen Hawking der Frage nach, ob es einen Gott gibt“. In der Folge „Der Sinn des Lebens“ wiederum „betrachtet der Astroforscher unser Dasein nach rein rationalen Gesichtspunkten“ gemäß dem Motto „Die Philosophie ist tot, es lebe die Physik“. Kurz gesagt: Es ist Ärgerliches zu erwarten.

Und es wird gleich in die Vollen gegangen. Es beginnt mit der Frage nach dem Bewusstsein und dem Denkvermögen. Warum ausgerechnet mit dieser und keiner anderen Frage begonnen wird, bleibt allerdings unerwähnt. Und dieses Prinzip zieht sich konsequent und rücksichtslos durch die gesamte Dokumentation.

Also: Bewusstsein und Denkvermögen. Man verweist auf René Descartes und seinen Ausspruch „Ich denke, also bin ich“. Descartes sei „allen anderen voraus“ gewesen, heißt es. Das könnte man auch anders sehen: In einigen Fragen war Descartes niemandem „voraus“, sondern lag ganz erheblich daneben. Allerdings will man den Zuschauer gedanklich irgendwohin lotsen, und dazu muss Descartes an dieser Stelle eben als Vordenker dargestellt werden.

Wo man den Zuschauer gedanklich haben will, wird anschließend klar: Descartes „behauptete, der Körper sei mit dem Geist über die Zirbeldrüse verbunden, einem kleinen Organ in der Mitte des Gehirns. Damit hatte er zwar nicht vollkommen recht, aber er kam der Wahrheit nahe“, heißt es. Aha. Er kam „der Wahrheit nahe“. Wir können das anscheinend beurteilen, denn heute kennen wir (also: Wissenschaftler natürlich), offenbar „die Wahrheit“ – endgültig, unzweifelhaft.

Nämlich: „Heute wissen wir, dass das Bewusstsein ein Produkt des gesamten Gehirns ist“. So, so. An solchen Stellen fällt mir spontan immer der Spruch des Entertainers Jürgen von der Lippe ein: „Das Gehirn ist das einzige Organ, das über sich selbst nachdenken kann“. Tatsächlich nämlich weiß man darüber… gar nichts. Schon gar nicht, wie ein Körper-Organ überhaupt so etwas wie Geist und Bewusstsein erschaffen können soll, geschweige denn: wie.

Immerhin. So hat man den geneigten Zuschauer ebenso elegant wie unauffällig zum Modethema „Gehirn“ gelotst: „Das Studium des Gehirns ist Aufgabe der Neurowissenschaftler. Aber da das Gehirn auch von physikalischen Grundkräften, wie etwa der elektromagnetischen Kraft, gesteuert wird, ist auch das Denken im Grunde nichts weiter als Physik“.

Und damit pendelt das Ganze spätestens jetzt irgendwo zwischen extrem waghalsig und grob fahrlässig. Mit solch brachialer Argumentationsakrobatik könnte man auch darauf verweisen, dass unser gesamter Körper schließlich der Schwerkraft ausgesetzt ist, Luftdruck, Schalldruck, Thermodynamik... selbstredend muss dann auch das Denken reine Physik sein, sicherlich.

Doch nun spricht Mr Stephen Hawking persönlich, der – natürlich rein rational – folgert, wir könnten mit unserem heutigen Wissen auch den Sinn und die Bedeutung des Lebens erkunden. Jedoch: „Für die Wissenschaft ist es nicht leicht herauszufinden, wie Bedeutung entsteht. Denn dazu müssen wir erst tiefer in die Frage eintauchen, warum wir ein Bewusstsein haben“. Aha. Müssen wir das? Eher nicht. Man will einfach nur eine bestimmte „Antwort“ loswerden und suggeriert dem Zuschauer eine dazu passende Fragestellung.

Wenn es „für die Wissenschaft nicht leicht ist herauszufinden, wie Bedeutung entsteht“, dann sollte zunächst einmal geklärt sein, was eine Bedeutung überhaupt ist bzw. darunter verstanden wird. Dadurch jedoch gelangt man sehr schnell zu der Erkenntnis, dass die Physik für diese Klärung komplett ungeeignet ist; also lenkt man clever auf ein anderes Thema ab.

An dieser Stelle musste ich diese Dokumentation abbrechen. Es war mir dann doch zu ärgerlich. Und man fragt sich, was so etwas soll. Menschen, die sich für solche Themen interessieren, auf diese Weise an der Nase herum zu führen. Noch schlimmer: wenn die das Ganze sogar glauben, weil es schließlich als „Wissenschaft“ präsentiert wird, von der Ikone Stephen Hawking.

Sonntag, 9. November 2014

quälend frei

In diesen Tagen rund um das Vierteljahrhundert Deutsche Einheit wird wieder ein bestimmter Begriff leicht überstrapaziert: „Freiheit“. Die Ostdeutschen wurden damals „befreit“, heißt es. Seit dem Mauerfall, spätestens seit dem politischen Wiedervereinigungsakt, sind sie „in Freiheit“. Als ob völlig klar wäre, was mit diesem Begriff eigentlich gemeint ist.

Eines meiner Lieblingsfachgebiete ist die Semantik, auch die Semiotik, auch „Bedeutungslehre“ genannt: Die sprachwissenschaftliche Beschäftigung mit Zeichen, Worten und Begriffen, was sie bedeuten, bedeuten sollen, und wie sie (zum Teil: völlig anders) verstanden und verwendet werden.

Exemplarisch dafür ist etwa der Begriff „Erfolg“, der durchweg positiv verstanden wird. Ein Fehlschlag dagegen wird als „Misserfolg“ bezeichnet. Interessanterweise. Schließlich ist ein Erfolg etwas, was aus einem Tun oder Lassen er-folgt, so oder so, positiv oder negativ. Auch ein „Misserfolg“ ist also ein Erfolg. Ein Erfolg, der nur den Wünschen und/oder Erwartungen nicht entspricht. Ungefähr so, wie der Begriff „Unsinn“ unsinnig ist, weil er einen Sinn hat.

Wenn man will, kann man sich so u.a. auch mit dem Begriff „Freiheit“ aktiv beschäftigen statt ihn nur medial passiv zu konsumieren. Etwa mit der Frage, ob „Freiheit“ eigentlich das Gegenteil von „Gefangenschaft“ ist? Das hängt sicherlich davon ab. In einem Staat, in dem keine Meinungsfreiheit gestattet ist, sind Meinungen deshalb sicher nicht gefangen. Außer man betrachtet das nicht politisch, sondern sinnbildlich; poetisch vielleicht.

So gelangt man zu der Frage: Wenn die Definition und das Begriffsverständnis vom Zusammenhang abhängig sind, ist es die Freiheit an sich dann auch? Waren die Ostdeutschen in der DDR zwar unfrei, aber immernoch freier als woanders? Und wie frei ist man als Arbeitnehmer, der vom Gehalt abhängig ist, um sein Leben finanzieren zu können? Und wie ist das in Ländern, die kriegerisch von ihren Diktatoren befreit wurden, in Afghanistan, im Irak beispielsweise, wo in voller Freiheit nun wild um sich geschossen wird.

Karl Lagerfeld meinte in einem Interview: „Ich bin total verantwortungslos. Deshalb könnte ich nie ein Unternehmen führen. Ich bin freischaffend. Freiheit ist die größte Distanz zur Verantwortung“. Vielleicht ist das auch der Grund für die Rekordzahl an Single-Haushalten. Vielleicht sind gar nicht Ehe und Familie heute unpopulär, sondern das Tragen der Verantwortung, die damit verbunden ist.

„Freiheit – die größte Distanz zur Verantwortung“. Das wird zuweilen auch anders betrachtet. In den Vereinigten Staaten ist jeder so dermaßen frei, dass er auch für sich selbst die totale Verantwortung hat, so auch für seine Gesundheit. Deshalb hat es dort Jahrzehnte gedauert, bis Barack Obama eine solidargemeinschaftliche Krankenversicherung durchsetzen konnte. Bis zur nächsten Wahl. Die Republikaner werden das – gleich als erste Amtshandlung – wieder abschaffen. Im Namen der Freiheit jedes einzelnen.

Um zwei Ecken herum führt das im doppelten Sinne zur Wahlfreiheit. Schon beim Konsum hat jeder die freie Wahl. Unter anderem zwischen unzähligen Shampoos, Waschmitteln, Joghurts, Müeslis, Backwaren, Nudelsorten, Getränken, Marmeladen, und, und, und. Die Qual der Wahl, aber in voller Freiheit.

Auch in der Frage, ob man sich „gesund“ ernährt oder nicht, Billigprodukte kauft, oder teurere mit „Bio“ und „Öko“-Siegeln aller Art. Das kann jeder frei entscheiden. Außer natürlich, er muss das Billigste und Ungesündeste kaufen, weil er mit jedem Cent rechnen muss. Doch auch das kann schließlich jeder in voller Freiheit jederzeit ändern.

Dienstag, 7. Oktober 2014

räumlich verliehen

Der Neuroforscher John O'Keefe vom University College London und das Forscherpaar May-Britt und Edvard Moser aus Trondheim haben jetzt den Nobelpreis für Medizin bekommen, für die Entdeckung so genannter „Orts“- und „Gitterzellen“ in unserem Gehirn. Aber sehen wir uns das doch einmal jenseits der fulminanten medialen Berichterstattung an... 

Demnach speichern wir also im Hippocampus und im entorhinalen Cortex unseres Gehirns mittels Ortszellen („Place Cells“) und Gitterzellen („Grid Cells“) permanent „innere Landkarten“ unserer Umgebung ab. Die Nobelpreis-Stiftung erklärt die Entdeckung als „inneres GPS“, das Mensch und Tier ermögliche, sich im Raum zu orientieren.

Das ist aus ganz anderen als neurologischen Gründen irgendetwas zwischen sehr erstaunlich und äußerst wundersam. Ein kleiner seitlicher Blick, zum Beispiel auf die Physik, wo sich immerhin Genies wie Da Vinci, Newton und Einstein mit dem Phänomen des Raumes beschäftigt haben, informiert uns nämlich über das wissenschaftliche Rätselraten, was (ein) „Raum“ überhaupt ist.

So meint etwa Leonard Susskind von der Stanford University, Physiker und – immerhin – Mitbegründer der Stringtheorie: „Warum gibt es überhaupt Raum anstatt keinen-Raum? Warum ist er dreidimensional? Warum ist er groß? Wie kommt es, dass er nicht klein ist? Über diese Fragen herrscht keine Einigkeit.“.
Alex Filippenko, Astrophysiker an der Berkeley University in Kalifornien wiederum meint: „Was ist Raum? Wir wissen es bis heute nicht“. Und der Physiker S. James Gates jr.: „Der Raum ist eines der größten Rätsel in der Physik“.

Sieh an. Doch ganz elegant an der Rätselhaftigkeit und physikalischen Unkenntnis vorbei haben drei Neuroforscher Gehirnzellen entdeckt, die unsere räumliche Orientierung ermöglichen. Erstaunlich. Das Ganze ist gar kein physikalisches Phänomen, sondern ein medizinisches. Wer hätte das gedacht. Vielleicht sollten die Koryphäen der Physik einmal bei den Dreien anrufen. Oder man verleiht den Neuroforschern gleich auch noch den Nobelpreis für Physik mit dazu.

Und wie war das eigentlich noch mit Filippo Brunelleschi, dem Architekten aus Florenz, der um das Jahr 1410 herum im Zuge seiner Entwürfe und Bauskizzen die Raumperspektive erfand, also die räumliche Darstellung: Linien, die in der Realität parallel nebeneinander liegen, für unser Auge jedoch auf einen Fluchtpunkt zulaufen. So, wie etwa eine Straße zum Horizont hin immer schmaler und die am Straßenrand stehenden Bäume immer kleiner zu werden scheinen.

Brunelleschi legte damit nicht nur den Grundstein für die Renaissance-Bauten und -Malerei, sondern er schuf eine bis dahin unbekannte, neue Art zu sehen, also: Sinneseindrücke zu verarbeiten. Das Sehen an sich hat jeder von uns ab dem Säuglingsalter gelernt. Das „räumliche Sehen“ erlernen Kinder etwas langsamer, bis sie circa 10 Jahre alt sind. Ein Lernerfolg, der letztlich auf Filippo Brunelleschi zurückgeht – jenseits irgendwelcher „Place Cells“ und „Grid Cells“ im Gehirn.

Und dann wäre da noch das „binokulare Sehen“: Das rein physiologische Sehen mit beiden Augen, mit der so genannten „Fusion“, nämlich dem Verschmelzen der beiden getrennt von linkem und rechtem Auge wahrgenommenen „Bilder“ zu einem einzigen. Menschen, bei denen diese Fusion nicht funktioniert („Stereoblindness“), haben auch kein räumliches Sehvermögen. Da werden die „Orts“- und „Gitterzellen“ im Gehirn wahrscheinlich aus Langeweile verstecken spielen.

Doch wer will sich schon solche Randgedanken machen? Das liegt nicht im Trend. Im Trend liegt die Gehirnforschung. Die vielen bunten Bilder von Hirnscans lenken so schön von dem ab, was da alles interpretiert und erklärt wird. Das findet wohl auch das Nobelpreis-Komitée.

Donnerstag, 4. September 2014

unweigerlich zukünftig.

Ich halte es für möglich, dass uns unsere Kinder später einmal fragen werden: „Warum habt ihr das nicht verhindert?“. Und man wird schulterzuckend dastehen und hilflos antworten: „Na, wie denn?“. Oder man bereitet sich jetzt schon darauf vor, für diesen Moment eine halbwegs plausible Antwort parat zu haben. Eines kann man jedenfalls gewiss nicht: sich aus allem heraushalten.

Das, wovon hier die Rede ist, ist (u.a.) die unaufhaltsam zwanghafte Vertechnisierung mit ihren Folgen. Man darf das übrigens ohne weiteres auch „gesellschaftliche Neurose“ nennen: Der technische, digitale Fortschritt, der irgendwann mit und durch die Firma „Apple“ aus der bloßen Zweckmäßigkeit herausgeholt und in die Welt der Mode gepfropft wurde. Seit „Apple“ ist Technik „trendy“ und „sexy“. Auf solch eine Idee muss man auch erst einmal kommen.

Gut. Ich bin Jahrgang 1970. Das begründet zwar nichts, doch sicherlich dürfte das eine Rolle spielen. In meiner Teenagerzeit besaßen ein paar männliche Mitschüler einen Heimcomputer, die meisten einen „C64“, manche sogar einen mit Floppydisc. Andere hatten einen „Schneider CPC“, der standardmäßig eine Datasette eingebaut hatte. Manch einer hatte dazu noch einen Akustikkoppler, über den man Daten zu einem BTX-System senden konnte. Die High-Tech-Computerwelt im Kinderzimmer. Wahnsinn.

Einerseits vermittelt das ein wenig Genugtuung gegenüber der jüngeren Generation, die bei solchen Begriffen, C64, Floppydisc, Datasette, BTX, usw. mindestens ebenso stutzt, wie ich, wenn mir heute Schlagworte des Digitalisierungszeitalters um die Ohren geworfen oder auf die Augen gedrückt werden.

So, wie kürzlich, als jemand auf „Facebook“ kommentierte, er habe „ProSieben entliket“, weil „die den ganzen Tag schon HIMYM-Stuff posten“, da liefe man Gefahr, dass „hier was gespoilert wird“.  Zunächst dachte ich: Das war’s. Diesen Rückstand hole ich in meinem Alter nicht mehr auf.

Allerdings dachte ich das schon öfter. Spontan fällt mir da „Starbucks“ ein, wo jemand vor mir einen Frappuccino Karamell bestellte, und zwar „bitte A, V, J und M“ (ohne Gewähr). Natürlich. Und das scheint deutlich normaler zu sein als der simple Kaffee, den ich haben wollte. So normal, wie sprechende Backautomaten in Supermärkten, die freundlich aus dem Lautsprecher säuseln, dass das gewünschte Produkt gerade frisch aufgebacken wird, was ungefähr drei Minuten dauert.

Nein, ich hege keine generelle Verweigerungshaltung gegenüber dem technischen Fortschritt oder sonstigen Veränderungen. Wahrscheinlich stelle ich (mir) einfach nur zu oft die Frage „Was soll das eigentlich?“.

So, wie damals, als verkündet wurde, „Apple“ (s.o.) habe jetzt die größte Innovation seit Jemals geleistet, und Mobiltelefon und Computer miteinander verschmolzen, nämlich zum „Smartphone“. Tja. Und was soll das? Doch inzwischen: Wo man auch ist, im Kaufhaus, in der U-Bahn, am Flughafen, auf Veranstaltungen… jeder zweite, den man sieht, wirft gerade einen Blick auf sein Mobilgerät. Da fragt man sich, ob man heute den Mitmenschen mehr mitzuteilen hat als früher oder wichtigeres, oder nur deswegen, weil es inzwischen möglich ist.

Nein, ich verweigere mich nicht. Ich bin völlig up-to-date. Ich weiß zum Beispiel, dass die ersten „SmartWatches“ erhältlich sind, mit denen man quasi locker aus dem Handgelenk heraus kommunizieren kann. Ich weiß, dass es die ersten Brillen gibt, die enorm wichtige Informationen aus dem Internet auf die Gläser projizieren – an ebensolchen Kontaktlinsen wird sicher längst gearbeitet. Und ich weiß, dass in ein paar Jahren Drohnen zur Paketauslieferung eingesetzt werden sollen.

Das Straßenbild wird in Zukunft also geprägt sein von Menschen, die ständig ihren Handrücken vor das Gesicht halten oder hinter ihren Brillengläsern wild mit den Pupillen zucken, alle in leicht geduckter Haltung, in Deckung von der nächsten Drohne, und um nicht von einem abgeworfenen Paket getroffen zu werden. Und das Ganze wird man für cool halten, für trendy und völlig normal. Es ist unausweichlich. Wer will das schon aufhalten? Vor allem: mit welchen Argumenten?

Donnerstag, 28. August 2014

vorsorglich kriminell.

Kürzlich wurde in einer „3sat“-Dokumentation spekuliert, ob man Kriminelle anhand ihres Gehirns identifizieren könnte. Experimente würden das nahelegen. Erst recht, seit eine Hirnforscherin bei Tierversuchen an Mäusen ein Gen entdeckt hätte, das irgendeine Verhaltensweise steuern würde, je nach dem, ob dieses Gen „an-“ oder „abgeschaltet“ sei. Faszinierend.

Die erste wichtige Frage jedoch, die hier nicht gestellt wird, gilt der fachberuflichen Zuständigkeit. Nämlich wenn eine Hirnforscherin im Labor Genforschung betreibt, wofür doch eigentlich Genforscher zuständig sind. Es sei denn, die Frau ist Genforscherin und wird (auch) als Hirnforscherin bezeichnet, weil ihre Forschungen an Genmaterial neue Erkenntnisse über Gehirnfunktionen liefern sollen. Oder wie?

Diese Kompetenzfrage bleibt ohnehin auffällig oft unbeantwortet. Wie es heißt, sind über die Hälfte der Hirnforscher eigentlich Psychologen oder Psychiater von Beruf, was niemand sonderlich zu hinterfragen scheint, weder kritisch noch überhaupt. Dabei ist das ungefähr so, als ob man einem Stauforscher die TÜV-Abnahme von Automobilen überträgt.

Eine andere durchgehend ungestellte Frage betrifft den Zweck des Ganzen. Nein, natürlich werden kostspielige Forschungen irgendwo zwischen Denken und Verhalten, Gehirn und Genen nicht von Konzernen finanziert, die erheblich gern alles über das Kaufverhalten der Menschen wüssten. Auf gar keinen Fall. Und falls doch, erklärt man uns das ein wenig anders.

Es geht nämlich vor allem darum, in Zukunft irgendwann eine „kriminelle Veranlagung“ in Menschen erkennen zu können, irgendwo in deren Gehirn oder Genen, um sie rechtzeitig therapieren oder aussortieren zu können, bevor sie straffällig werden. Es geht – wie immer – um das Gute. Natürlich. Und ganz nebenbei auch um ein wenig Marketing für die Wissenschaft.

Dabei kann man sich das ganze spekulative Herumforschen prima sparen und ersatzweise ein Buch lesen und einen Spielfilm ansehen. Das Buch: „Unheil. Warum jeder zum Mörder werden kann“, geschrieben vom ehemaligen Chefermittler der Münchener Mordkommission Josef Wilfing. Der Film: „Falling Down“, Untertitel „Ein ganz normaler Tag“ mit Michael Douglas in der Hauptrolle.

Dazu vielleicht noch ein wenig Hintergrund aus der Biologie, nämlich die „Reiz-Summen-Regel“, wonach bestimmte Reaktionen und Handlungen erst dann erfolgen, wenn eine (angesammelte) Reizqualität einen bestimmten Schwellwert überschreitet. Anders gesagt: Man kann einiges „schlucken“ – doch irgendwann reagiert man darauf irgendwie. Keiner weiß wann. Keiner weiß wie. „Ein kleiner Funke reicht“.

Und weil das Ganze nun so ziemlich gar nichts mit einer organischen „Veranlagung“ in Gehirn oder Genen zu tun hat, hilft es auch nichts, Menschen aufgrund eines Hirnscans im CT oder einer DNA-Analyse vorsorglich wegzusperren – oder Forscher in ihre Laboratorien.

Montag, 25. August 2014

beruflich desorientiert.

Wir leben in einer Zeit unverantworteten Geschwätzes“ stellte Rupert Lay bereits vor einigen Jahren fest. Verschiedene Anzeichen dafür findet man nahezu überall. Bei Weitem nicht nur in der Politik. Längst auch im Alltag, wenn eine frühere Putzfrau, die heute Reinigungskraft heißt, die Absage einer Gehaltserhöhung gern hinnimmt, wenn man sie ab sofort Hygienebeauftragte nennt. Dabei ist das noch harmlos.

Kürzlich fiel mir der Katalog einer Volkshochschule in die Hände. Unter etlichen anderen werden darin zwei recht ähnliche Kurse angeboten, der eine von einem „ausgebildeten Schneeschuhführer“ (was es nicht alles gibt), der andere von einem „gepr. Snow Shoe Instructor“ (was es nicht alles gibt).

Prompt stellten mir meine Synapsen einige Erinnerungen zur Verfügung. Eine davon lieferte mir einen meiner Seminarteilnehmer, der mir vor ein paar Jahren in einem Pausen-Smalltalk erklärte, er sei „Call Center Agent im Inbound-Bereich eines Frontoffice, im First-Level-Support“. Sieh an. Eine solche Arbeitsplatzbeschreibung ist inzwischen so erstaunlich normal verbreitet, dass es nicht-normal wirkt, wenn sich darüber jemand wundert oder gar amüsiert.

Der Trend- und Zukunftsforscher Matthias Horx hat das in seinem Buch „Wie wir leben werden“ trefflich so beschrieben, dass es ohnehin keine lebenslangen Arbeitsplätze mehr geben würde, und man sich in Zukunft statt dessen einfach einen eigenen Beruf erfindet, damit sei man auf der sicheren Seite.

Früher jedenfalls gab es die ernsthaft-humorigen Kabarettisten wie Dieter Hildebrandt, Werner Schneider, u.a., daneben ein paar Satiriker wie Loriot, Ephraim Kishon, und am Rande die reinen Spaßmacher wie Otto Waalkes, die blödeln durften, wie sie wollten. Plötzlich tauchten dann überall so genannte „Comedians“ auf, die eine Mixtur aus dem Ganzen darstellen sollen und irgendetwas machen, was man vorher nicht zuordnen konnte.

Seit ein paar Jahren darf man wiederum hin und wieder die Tätigkeitsbezeichnung „Blogger“ lesen. Menschen, die auf einer eigenen Internetseite unkontrolliert persönliche Kommentare veröffentlichen. Das qualitative Niveau ist Nebensache, auf ein massentaugliches Thema kommt es an; dann kann man über eingebaute Werbebanner damit irgendwie Geld verdienen, und ist „Blogger“ von Beruf.

Oder auch: „YouTuber“, wenn man dasselbe, ebenso massentauglich, am besten in Form von „Comedy“, mit kurzen Heimvideos betreibt: Auf die Klick-Zahlen kommt es an, das produziert potenzielles Einkommen über Werbe-Einblendungen, und man ist „YouTuber“ von Beruf.

Wenn einem für beides partout das Talent fehlt, kann man sich in einem gewissen Altersspektrum auch ersatzweise einmal jährlich „casten“ lassen, in TV-Shows für zukünftige Superstars, Topmodels, Millionärsbräute und „It-Girls“. Dafür reicht es sogar, einigermaßen trällern bzw. auf einem Laufsteg zehn Meter unfallfrei geradeaus gehen zu können oder einfach nur einen guten Eindruck zu machen.

Alternativ oder ergänzend kann man auch professionell – also: hauptberuflich – Computerspiele spielen, wobei übrigens auch blutrünstige Ballerspiele im „Profi-Gaming“ als „Sport“ gelten. Man reist durch das Land oder auch über Kontinente, tritt bei Turnieren an, sammelt Preisgelder ein, mitunter bis zum Großverdiener, und man ist „eSportler“ von Beruf.

Das ist die Welt, in der die Jugend heute aufwachsen darf. Und parallel zu dem Ganzen erklärt man den Eltern, dass sie ihre Kinder für unsere Wissensgesellschaft und Bildungsrepublik fit zu machen haben. Viel Glück dabei.

Freitag, 15. August 2014

verwirrend unlogisch.

Nein, wirklich: Wenn es um die Logik geht, wird es knifflig. Nicht unbedingt wegen der Logik an sich, die eigentlich schon kompliziert genug ist, je nach dem, wie stark man sich damit beschäftigt. Sondern eher wegen dem, was tief und fest in unser aller Köpfen feststeckt, wenn es um Logik geht. Da ist es fast schon konsequent logisch, dass sich kaum jemand ernsthaft damit beschäftigen will.

Getreu dem Spruch „Wer einen Hammer hat, sieht überall Nägel“, stutze ich jedesmal, wenn aus dem Radio eine bestimmte Stelle eines aktuellen Liedes zu hören ist: „Ich mach` die Augen zu und dann … seh` ich, was die Logik nicht begreifen kann“. Tja. Das wäre mal interessant zu wissen: Was sieht man in einem solchen Fall, wenn man sieht, was die Logik nicht begreift?

„Die Logik“ begreift eben gar nichts. Ebenso wenig, wie „die Lyrik“ stellvertretend für den Musiker einen Songtext schreibt oder „die Addition“ eine Summe ausrechnet. Die Logik ist ein gedankliches Hilfsmittel, das manchmal mehr und manchmal weniger geeignet ist, um etwas zu begreifen. Das hängt jedoch in erster Linie vom Anwender persönlich ab.

Ich erinnere mich dabei grob an ein TV-Gespräch, das kürzlich auf einem deklarierten „Bildungskanal“ ausgestrahlt wurde. Als Gesprächsgast eine Paar- und Familientherapeutin, mittendrin gefragt vom Moderator: „Sie machen also systemische Beratung. Das ist, glaube ich, nicht ganz einfach zu erklären. Ich hab`s zweimal versucht nachzulesen, ich hab`s, ehrlich gesagt, nicht verstanden“.
Die Antwort der Therapeutin: „…ähm, ich beschränke mich darauf, …ich erkläre es einfach so, …ich arbeite mit Beziehungsproblemen. Also, zu mir kommen Leute, die in irgend einer Art und Weise Beziehungsprobleme haben“. Das klingt nicht gerade nach geballter Kompetenz.

Systemische Beratung also. Man kann das auch anders erfragen: Warum pappen Hersteller eigentlich „Bio-“ und „Öko“- und Qualitäts- und Garantie-Siegel auf die Verpackungen? Weil es sich damit besser verkaufen lässt. So ungefähr ist das auch mit dem Großteil der systemischen Beratung. Und da kommt so manch ein Berater auch schon mal leicht ins Stottern.

Systemisch meint Effekte von Gegen- und Wechselwirkungen und Rückkopplungen. Und das sind natürlich Hauptmerkmale generell in der Kommunikation, nicht zuletzt bei Verständigungsproblemen, nicht nur bei Paaren und in Familie und Erziehung, sondern überall zwischen Menschen. So einfach kann man erklären, was systemisch ist. Erheblich schwieriger ist etwas ganz anderes…

Wo etwas systemisch verläuft, gegen- und wechselwirkend, da wirken eben keine klaren Ursachen, die wir so gerne hätten, um „zu wissen, woran es liegt“, um so auch „die Ursache beheben“ zu können. Nur wenig bis gar nichts verläuft hierbei nach einer „Wenn->Dann“-Logik. Systemisch meint also (unter anderem) unlogisch. Eine systemische Beratung ist damit quasi „angewandte Unlogik“: sie kann weder aus irgendeiner (Problem-) Analyse bestehen, noch kann sie Ursachen aufdecken und beheben wollen, es kann hier auch nicht ein bestimmtes Ziel verfolgt und damit auch nicht erreicht werden. Überall dort, wo das dennoch erzählt wird, ist „systemisch“ nichts weiter als ein aufgepapptes Etikett zum besseren Verkauf.

Doch bei allem, was wir in unseren Köpfen haben, fragt man sich, wie um alles in der Welt auf diese Weise, systemisch, überhaupt irgendein Problem gelöst werden kann… unlogisch, ohne Analyse, ohne Ursachenforschung, ohne Zielsetzung(?). Genau das ist das eigentliche Problem: Das, was wir in den Köpfen haben, und wie das eigentlich da rein gekommen ist. Nicht nur: Wie Lösungen möglich sind. Sondern: Was überhaupt ein Problem ist.

Donnerstag, 31. Juli 2014

anatomisch gedacht.

In unmittelbarer Nähe unseres Fernsehapparates hatte ich kürzlich eine DVD zwischengelagert, auf der sich eine Dokumentation über das menschliche Gehirn befindet. Die Aufbewahrungshülle ist dem entsprechend optisch gestaltet. Unser Sohn, gerade erst sieben Jahre alt geworden, warf einen Blick darauf und stellte ganz gelassen fest: „Ah, ein Gehirn“. 

Nun richten wir uns grundsätzlich nach dem Motto „Lasst Kinder wieder Kinder sein“. Wenn der Schlingel (andauernd) wissbegierig neugierige Fragen stellt und/oder es sich (ständig) situationsgemäß ergibt, wird das selbstredend genutzt, doch wir verzichten als Eltern auf mutwillige Bildungsmaßnahmen. Aktive Noteingriffe nehmen wir nur dann vor, wenn (erstaunlich oft) eine schulische oder anderweitige Fehlbildung stattfindet.

So kam die Feststellung unseres Sohnes „Ah, ein Gehirn“ für mich doch recht überraschend. Meine Rückfrage, woher er weiß, wie ein Gehirn aussieht, verpuffte in einem gleichgültig kurzen Schulterzucken, als würde man das eben wissen, natürlich, als Erstklässler. Im Lehrplan der ersten Klasse steht das jedenfalls nicht. Vermutlich hat der Junge in meinen Arbeitsunterlagen herumgewühlt. Oder er hat das im Kinderfernsehen aufgeschappt, wo verschiedene Jungmoderatoren (so genannte „Checker“) Wissenshäppchen präsentieren, mit solch bildungsträchtigen Titeln wie „Wissen macht Ah!“ oder „Woozle Goozle“.

Doch so schnell gibt man gegenüber seinem minderjährigen Nachwuchs natürlich nicht auf und hakt noch einmal nach: „Und weißt du denn auch, was das Gehirn so macht?“. Sicher kennen Sie das: In exact dem selben Moment, in dem man etwas sagt und einem die Worte über die Lippen gleiten, weiß man, dass man gerade einen Fehler macht; in diesem Fall einen rhetorischen. Prompt bekam ich die erfolgreich suggerierte Antwort: „Na, das Gehirn denkt“.

Dennoch überkam mich erneut leichte Verwunderung. Immerhin bin ich erziehungsberechtigt. Und ich habe trotzdem keine Ahnung, woher der Bursche solche Informationen hat, noch dazu ungeprüft und unbewiesen. Und noch einmal nachgehakt: „Aha, das Gehirn denkt, sagst Du. Und deine Leber, dein Magen? Denken die auch?“ – „Nein, natürlich nicht“.

Tja. So etwas könnte der Beginn einer spannenden Diskussion irgendwo zwischen Neurowissenschaft und Erkenntnistheorie sein. Doch mit seiner geballten elterlichen Autorität, die man sich gern einbildet, steht man der Informationspolitik öffentlich-rechtlicher Institutionen von Schule und Fernsehen ziemlich machtlos gegenüber. Was ein Siebenjähriger aus diesen Quellen glaubt zu wissen, das glaubt er zu wissen.

So ergibt sich und verbreitet sich das, was man u.a. „Allgemeinbildung“ nennt: Der Mensch hat fünf Sinne, die Schwerkraft lässt Gegenstände nach unten fallen, und das Gehirn denkt. Natürlich. Das weiß schließlich jeder, seit der Schulzeit. Und weil das so ist, weil das „jeder weiß“, ist dagegen kaum anzukommen.

Das Gehirn denkt. Natürlich. Ungefähr so, wie Licht brennt. Licht kann sogar nicht nur brennen, man kann es zudem noch ein- und ausschalten. Und auch die Sonne geht allabendlich unter – mit dem Nebeneffekt, dass ein Sonnenuntergang romantisch ist, ein etwaiger Weltuntergang dagegen Angst und Schrecken auslöst.

Das Gehirn denkt. Der Künstler Joseph Beuys dagegen meinte: „Ich denke mit dem Knie“. Und der bekannt intelligente Entertainer Jürgen von der Lippe stellte fest: „Das Gehirn ist das einzige Organ, das über sich selbst nachdenken kann“. Das könnte man tun: darüber nachdenken. Sollte man auch. Notfalls mit dem Knie.

Montag, 21. Juli 2014

quälend vernünftig.


Ich favorisiere 3sat, arte und Phoenix, wenn es um herkömmliches Fernsehen geht. Kanäle mit einem gewissen Anspruch jenseits des Mainstreams. Zwischendurch zeigt sich jedoch, dass das weder eine Garantie noch Gewähr für irgendetwas beinhaltet. Auch auf diesen Kanälen wird zuweilen Erschreckendes versendet, nur eben auf anderem Niveau.

Wie so oft zappt man am späten Abend verzweifelt durch das Angebot Dutzender TV-Sender, auf der Suche nach etwas halbwegs erträglichem. Auf „Phoenix“ scheint man ansatzweise fündig zu werden: „Tausendsassa Tier“, eine zunächst harmlos anmutende Dokumentation über Fledermäuse. Na, warum nicht. Aber, dann…

Man darf von einem gewissen Lazzaro Spallanzani erfahren. Einem italienischen Priester, Philosophen und Naturforscher in Personalunion, der sich im 18. Jahrhundert als Erster dem Mysterium widmete, wie sich Fledermäuse im Dunkeln orientieren. Ab dem Jahr 1793 experimentierte der Geistliche drei Jahre lang mit den Tierchen und dokumentierte seine Forschungen in seinem Tagebuch.

Soweit noch harmlos. Doch dann, plötzlich und unerwartet: „Spallanzani traute den Erläuterungen der Bibel nicht und gab der Wissenschaft und der Vernunft den Vorrang“. Achwas. Er gab der Vernunft den Vorrang. Sieh an. Vorrang vor dem, was in der Bibel geschrieben steht. Upps. Was soll das denn werden?

Der gute Mann, seines Zeichens Priester, traute also den Erläuterungen der Bibel nicht. Aha. Welchen Erläuterungen, bitte? Dass Gott nur ein paar Tage brauchte, um die Erde zu erschaffen? Dass er Eva kurzerhand elegant aus Adams Rippe schnitt? Dass sich der Mensch nach zehn Geboten richten möge? Oder gibt es in der Bibel etwa Erläuterungen speziell über Fledermäuse? Welche Erläuterungen?

Der Wissenschaft gab Spallanzani also der Vorrang. Und der Vernunft. Das heißt also: Was in der Bibel geschrieben steht, ist unvernünftig. Und vernünftig(er) ist demnach irgendetwas anderes. Wissenschaft zum Beispiel. Eine solche Feststellung ist mindestens waghalsig. Und warum das so ist, zeigte sich dann auch prompt…

Spallanzani bastelte sich eine Kappe aus Haut, die er einer Fledermaus über den Kopf zog, um streng wissenschaftlich zu prüfen, ob sie damit immer noch im Dunkeln unfallfrei flattern kann. Und der Naturforscher notierte: „Sie stürzte zu Boden. Die Hautkappe machte sie vollkommen blind“. Na, prima. Das hat der Mann sehr vernünftig erkannt. Es kommt allerdings noch besser:

Um absolut sicher zu gehen, dass ich nur den Sehsinn prüfte, ging ich im Ausschlussverfahren vor. Mit kleinen, rot-glühenden Nadeln stach ich ihr die Augen aus. Das Ausbrennen der Augen erzeugte ein knisterndes Geräusch, das mir zeigte, dass die Pupille und der äußere Teil des Auges wirklich verbrannt waren. Doch auch mit ausgestochenen Augen konnte sie immer noch perfekt fliegen, ohne gegen die Wände zu stoßen“.

Natürlich: Wenn man den Erläuterungen der Bibel nicht traut, dann brennt man wehrlosen Tieren schon einmal die Augen aus. In aller Vernünftigkeit und „im Dienst der Wissenschaft“. Die Hexenverbrennungen im Mittelalter wären wohl ebenso nicht der Rede wert, wenn man das für die Wissenschaft und aus Vernunftgründen getan hätte. Was der Geistliche sonst noch mit seiner Fledermaus anstellte, habe ich dann mit Hilfe der Fernbedienung meiner Kenntnis entzogen. 

Dienstag, 15. Juli 2014

nervlich überstanden

Joachim Löw mit WM-Pokal - Ankunft am Flughafen Berlin


Kaffeesatz, Kristallkugel oder Statistik: Die Wahrheit liegt auf dem Platz, der Ball ist rund, Abseits ist, wenn der Schiri pfeift, und am Ende ist Deutschland dann doch Weltmeister, Orakel hin oder her.

Donnerstag, 12. Juni 2014

meisterlich (v)errechnet

Na, endlich! Es orakelt wieder! Pünktlich zu jeder fußballerischen Großveranstaltung wird vorhergesehen, dass die deutsche Nationalmannschaft wahlweise Europa- oder Weltmeister wird. Nein. Nicht mittels Kristallkugeln, Kaffeesatz oder Tarotkarten. Wer wird an solchen Unsinn glauben. Der Unsinn wird vielmehr hochpräzise mathematisch errechnet.

Im Jahr 2006 fand die arithmetische Prophezeiung noch relativ simpel statt, unter Zuhilfenahme von Variablen vorheriger Weltmeistertitel der Jahre 1954, 1974 und 1990. Es war zu rechnen: 54x74-1990, Ergebnis: 2006, folgerichtig hätte Deutschland Weltmeister werden würden müssen geworden sein. Wie die meisten von uns wissen: Es kam anders. Trotz mathematischer Formel.

Für die folgende WM 2010 in Südafrika begnügte man sich dagegen nicht mit solchen Bierdeckelberechnungen an Stammtischen. Niemand geringerer als der Dortmunder Physikprofessor Metin Tolan erklärte damals, vor vier Jahren: „Im Durchschnitt hat Deutschland in der Vergangenheit Platz 3,7 belegt, um diesen Wert schwankten die Platzierungen. Dazu kommt, dass wir alle vier, fünf Jahre ein besonders starkes Team hatten. Das kann man mit einer Kosinus-Funktion beschreiben“.

Demnach hätte Deutschland bereits 2006 Weltmeister werden müssen, doch eine Besonderheit der Formel liege – laut Tolan – darin, dass der Finalsieg immer ein WM-Turnier zu früh als Ergebnis hätte. Zwangsläufig müsse Deutschland demzufolge also eben 2010 Weltmeister werden, so Tolan damals. Jedoch erneut: …hätte geworden werden müssen, doch wurde leider doch wieder nicht.

Die mathematische Orakelung hatte damit keineswegs ein Ende. Zwei Jahre später, zur Europameisterschaft 2012 in Polen und der Ukraine erklärten zwei Experten vor dem Turnier wieder einmal Deutschland zum zwangsläufig neuen Titelträger: Michael Groll von der Deutschen Sporthochschule Köln und Bernd Giezek von der International School of Management in Frankfurt.

Per statistischer Berechnungen der Rangfolge der Teams, bei anschließender Spielsimulation nach Gruppeneinteilung und Spielplan, plus zusätzlicher Sondereffekte wie verschiedener Zufallsfaktoren, sowie diverser Messgrößen wie den Marktwert der Mannschaften, den Koeffizienten in der UEFA-Rangliste und Wettquoten würde Deutschland triumphieren.
Der Faktor „Zufall“ im Fußball besteht übrigens aus den Unterkategorien „Glück“ (Schiedsrichterentscheidungen, Pfostenschüsse, u.ä.) und „Tagesform“, die als Standardabweichung vom geschätzten Qualitätspotenzial gesetzt wird – das haben die Hamburger Wissenschaftler Quitzau und Vöpel in einer Studie im Jahr 2009 ermittelt.

Eine andere Standardabweichung zeigte sich erst gegen Ende der EM 2012, nämlich die standardmäßige Abweichung der Realität von der gesicherten Berechnung: Europameister wurde eben nicht Deutschland, sondern das schier unberechenbare Spanien.

Wie auch vor der WM 2010 in Südafrika hat auch diesmal wieder der Professor an der Technischen Universität Dortmund, Metin Tolan, den Ausgang des Turniers in Brasiliem berechnet: standardmäßig abweichend wird demnach wieder Deutschland Weltmeister!
Grundlage seiner Berechnung ist die Torquote der deutschen Nationalmannschaft, durchschnittlich 3,6 Tore in der WM-Qualifikation, mehr als jedes andere Nationalteam.  Die Torquoten der WM-Teilnehmer ließ Tolan in eine Formel zum radioaktiven Zerfall von Atomen einfließen, und von einer Software über 100.000-mal berechnen.
Ergebnis: Deutschland holt mit 20,33% Wahrscheinlichkeit den Titel, das ist 6,5-mal wahrscheinlicher als bei anderen Nationen. Spanien mit 0,65% und Brasilien mit 9,04% sind dagegen nur völlig überschätzte Außenseiter.

Allmählich wünsche ich mir, dass alternativ doch einmal jemand im Kaffeesatz lesen möge, vielleicht Frau Sommer, passenderweise mit ihrer „Krönung“.

Dienstag, 20. Mai 2014

verhaltensauffällig beobachtet

Als Vater eines Erstklässlers kommt man u.a. in Freizeitparks, Stadtparks und auf Spielplätzen unausweichlich mit anderen Knirpsen ähnlichen Alters in Kontakt. Das kann aus mehreren Gründen erheblich interessant sein, aus elterlichen, pädagogischen, sozialen, manchmal sogar aus beruflichen Gründen.

So, wie kürzlich, als unser Sohn bei einer solchen Gelegenheit von einem Circa-Gleichaltrigen zum Spielen gebeten wurde, mit den Worten: „Du brauchst keine Angst vor mir zu haben! Ich habe mein Verhalten geändert“. Wow. Das war mal ein Satz! Aus dem Mund eines ungefähr Sechsjährigen! Er hat sein Verhalten geändert. Sieh an. Als Sachverständiger in diesem erweiterten Fachbereich fragt man sich unweigerlich, ob der Kleine annähernd weiß, was er da eigentlich spricht.

Jedenfalls steckt in diesem unscheinbaren Satz mehr Information als wohl die meisten Eltern über ihren Nachwuchs freiwillig preisgeben würden. Der fremde Junge war offenbar eine Zeit lang aggressiv „verhaltensauffällig“ und wurde therapiert; Abschlussdiagnose: „Ihr Junge ist jetzt friedlicher. Er hat sein Verhalten geändert“. Und sehr sicher wurde der Kleine auch von Therapeuten öfter ermahnt: „Du musst dein Verhalten ändern!“. So schlittert eine solche Phrase in den Sprachschatz eines Erstklässlers.

Der arme Junge. In mehrfacher Hinsicht; noch ganz abgesehen von etwaigen Problemen mit Gleichaltrigen, mit Lehrern und Eltern, die ein Nachwuchsrüpel zwangsläufig haben muss. Sondern ihm wurde so auch noch frühzeitig ein Bildungsproblem eingehämmert, das alle anderen Kinder zwar auch noch bekommen werden, allerdings erst deutlich später und erheblich subtiler:

Irgendein Verhalten nämlich, welches auch immer, ist nichts, was ein Mensch per se und an sich „hat“. Ein bestimmtes Verhalten, irgendeines, welches auch immer, ist nichts. was „in der Persönlichkeit“ oder „im Charakter“ eines Menschen verankert wäre. Sondern zunächst einmal ist Verhalten …eine Beobachtung. Und sonst: gar nichts.

Falls Sie jemals allein auf einer einsamen Insel stranden, nach einem Unterschlupf suchen, Beeren sammeln, Sandburgen bauen und Selbstgespräche führen, dann ist nichts davon Ihr „Verhalten“. Sicherlich werden Sie andauernd irgendetwas machen, sich betätigen, tun und lassen, aber: Sie verhalten sich nicht! Nur jemand, der Sie bei all dem beobachtet, kann das, was er da sieht, Ihr Verhalten nennen.

Wenn einem Sechsjährigen erzählt wird „Toll, Du hast Dein Verhalten geändert“, dann hat er also mitnichten gelernt, sich „anders zu verhalten“, denn das ist völlig unmöglich. Er hat allenfalls gelernt, etwas zu tun oder zu lassen, was man jetzt anders an ihm beobachten kann. Und das sind mindestens zwei Paar Schuhe.

Freitag, 9. Mai 2014

unendlich theoretisch

Eine ganz erhebliche Menge Unfug wird verbreitet, weil sich Wissenschaften als Wissenschaften bezeichnen, die mit Wissenschaft herzlich wenig zu tun haben. Dass das für den Laien kaum zu durchschauen ist, gehört zu diesem Zirkus mit dazu. Und auch ein paar von den „richtigen“ Wissenschaften leben eher von Glaubens- als Beweiskraft. Zum Beispiel die Sternengucker.

Der Weltraum. Unendliche Weiten. Planeten, ferne Galaxien und Schwarze Löcher, Raumsonden, irgendwann Siedlungen auf dem Mars, eventuelle außerirdische Lebensformen, theoretisch mögliche Zeitreisen… was hat diese Gesamtthematik nicht alles Aufregendes zu bieten. Das Ganze ist perfekt geeignet, um die Marke „Wissenschaft“ zu verkaufen.

Die Astronomie quasi stellvertretend für das, was Wissenschaft und Wissenschaftler ganz generell an atemberaubenden Erkenntnissen und Fortschritten zu liefern imstande sind. Da senkt man gern ehrfurchtsvoll das Haupt und glaubt auch sonst alles, was „wissenschaftlich erwiesen“ ist; oder widerlegt, je nach dem – bis hin zu Zahnbürsten und Faltencremes, die in Werbespots von Statisten in weißen Kitteln inmitten von Labor-Kulissen angepriesen werden

Aber zurück in die unendlichen Weiten des Universums, die laut Astronomen gar nicht unendlich sind, sondern im Gegenteil. Dass es nämlich auf unserem Planeten überhaupt nachts dunkel ist, das liegt nicht etwa an der Erdrotation und nächtlich abwesender Sonneneinstrahlung, sondern ist vielmehr der Beweis dafür, dass das Universum endlich sein muss. Sagen Wissenschaftler.

Wenn man will, gelangt man thematisch damit gleich zum „Urknall“, quasi dem Anfang von allem, und wohl auch des wissenschaftlichen Glaubens daran. Wie man uns erklärt, ist dieser Urknall eine enorm verzwickte Angelegenheit. Außer für den Physik-Nobelpreisträger Robert B. Laughlin, der das in einem einzigen Satz allgemeinverständlich erläutern kann: „Die Urknalltheorie ist nichts weiter als Marketing für die Wissenschaft“.

Ansonsten stellt sich üblicherweise die müßige Frage, was denn eigentlich „vorher“ war; vor dem Urknall(?). Da helfen dann auch Rechenkünste und Computersimulationen nicht mehr weiter, sondern muss – wissenschaftlich – spekuliert werden.

Jedenfalls hätte den Urknall ohnehin niemand beobachten können, auch wenn gerade irgendjemand zufällig in der Nähe gewesen wäre, denn vor dem Urknall gab es schließlich noch kein Licht. Es gab auch keinen Raum, weder ein „Innen“, noch ein „Außen“; wo hätte sich da ein Beobachter aufhalten sollen? Und es gab auch noch keine Zeit, kein „vorher“ und kein „nachher“, womit sich prompt auch die Frage erledigt, was „vor“ dem Urknall war. Wie praktisch.

Wer sich als Laie für besonders clever hält, fragt an dieser Stelle vielleicht: Wenn zum Zeitpunkt des Urknalls also noch kein Raum existierte, wohin ist er dann eigentlich explodiert, der Knall? Denn schließlich: „explosio“ ist lateinisch und bedeutet „herausklatschen“. Wo heraus und wo hin denn, so ganz ohne Raum?

Doch von wegen. Wissenschaft ist eben auch über Cleverness weit erhaben. Explodiert ist eben nichts in einem Raum, sondern explodiert ist erst einmal die Zeit. Und die hat den Raum gleich mitgenommen. Denn schließlich: Nach Einstein sind Zeit und Raum untrennbar. Wenigstens an dieser Stelle hat man Newton überwunden; wahrscheinlich aus Praktikabilitätsgründen.

Und wie so oft kann man (muss man nicht, aber kann man) die Frage stellen: Was soll das alles eigentlich? Diese Urknalltheorie über den Anfang von allem gehört außer zur Schulbildung auch zur Allgemeinbildung eines zivilisierten Mitteleuropäers. Aber: Warum? Wozu brauchen wir das im Kopf?

Mittwoch, 30. April 2014

wissenschaftlich obdachlos

Obdachlose Menschen sind nicht etwa deshalb obdachlos, weil in ihrem Leben einiges ziemlich schiefgelaufen ist, sondern weil mit ihrem Gehirn etwas nicht ganz stimmt. Zumindest bei der Hälfte der Obdachlosen ist das angeblich der statistische Fall. Zumindest in Kanada. Und auf dem Papier.

Das jedenfalls ist das Ergebnis einer Studie der Medizinerin Jane Topolovec-Vranic vom St. Michaels Hospital in Toronto, die statistisch ermittelt – also schlicht: nachgezählt – hat, dass bei 45% der von ihr untersuchten Obdachlosen schwerere oder leichtere Hirnverletzungen vorlagen ( >> Canadian Medical Association ).

Und weil sich das mit ähnlichen US-amerikanischen Studien aus den Jahren 1995 und 2008 deckt, schließt man daraus: Obdachlosigkeit ist nicht etwa vor allem ein soziales, gesellschaftliches, politisches Problem, sondern ein neurologisches, also medizinisches, und zwar im Gehirn der Betroffenen.

Prompt ist Obdachlosigkeit folglich auch „behandelbar“, „therapierbar“ und „heilbar“. Das jedenfalls wird so unter der Überschrift „Ist Obdachlosigkeit heilbar?“ medial verbreitet: „Hirnverletzungen scheinen das Risiko erheblich zu erhöhen, irgendwann im Laufe des Lebens obdachlos zu werden“. Natürlich. Und das globale Internet erhöht erheblich das Risiko, dass Desinformation aus Nordamerika auch hierzulande verbreitet wird.

Wie so oft nämlich, führt auch diese Studie zu einer Null-Diagnose. Trotz sauber geführter Statistik nämlich weiß kein Mensch, ob die Betroffenen ein Schädel-Hirn-Trauma erlitten, bevor oder nachdem sie obdachlos wurden. Hauptsache, dass man das unter die Menschheit gebracht hat. Vielleicht sollte man in einer anderen Studie prüfen, wie viele Obdachlose unter Bluthochdruck leiden und womöglich nur deshalb obdachlos sind – oder trotzdem.

Aber nein: Seit runden zwanzig Jahren wird so ziemlich alles auf „das Gehirn“ zurückgeführt, was man vorher nur auf „die Psyche“ geschoben hat: Ehekrisen, schulische Lernprobleme, Übergewicht, Depression, etc, etc. Jedoch: „Das Gehirn“ gibt es so nicht! Jeder Mensch hat sein eigenes, und zwar jeden Tag ein anderes, in permanenter Veränderung. Während Sie diesen Text hier lesen, verschalten sich gerade ein paar Ihrer Synapsen neu.

Kurz gesagt: Das Gehirn verändert sich durch das, was und wie man mit seinem Gehirn denkt. Nur leider haben wir in der Schule alles mögliche gelernt, über Dinosaurier und Französische Revolution, von der Photosynthese bis zur Genetik… doch nichts darüber, wie man mit persönlichen Lebenskrisen umgehen sollte. Es hätte dem einen oder anderen vielleicht die Obdachlosigkeit ersparen können. Trotz Schädel-Hirn-Trauma und trotz solcher Studien und Statistiken.

Mittwoch, 2. April 2014

digitale Analogien

Wie alles andere, ist auch unsere Sprache in permanenter Veränderung. Wenn man außerdem weiß, dass die Sprache einen ganz erheblichen Einfluss auf das Denken hat, wäre es wirklich besser, wenn manche zeitgeistigen Entwicklungen keinen nachhaltigen Effekt haben mögen. Frei nach Wittgenstein: Erst redet man sich, und dann denkt man sich um den Verstand.

Es ist schon einige Jahre her, da musste man stark aufpassen, nicht gegen seinen Willen von irgendwem abgeholt und anderswo hin gebracht zu werden, wenn auch zunächst nur sprachlich. „Wir müssen die Menschen da abholen, wo sie sind“ war als flotter Spruch dermaßen trendig, dass er alle Nase lang zu lesen und zu hören war.

Heute wiederum scheint jeder, der bei einer x-beliebigen Gelegenheit zu Wort kommen darf, über die Lage um kurz vor Mitternacht reden zu müssen, nämlich: „Am Ende des Tages…“. Das soll wohl das „letztlich“ ersetzen; oder das bei Juristen und Betriebswirten so beliebte „Im Ergebnis…“; oder den „Endeffekt“, der in der breiten Bevölkerung schon eher verbreitet ist. Nun, letztlich werden wir im Ergebnis am Ende des Tages sehen, wie lange sich dieser Verbaltrend im Endeffekt halten wird.

Fast schon kurios wird es jedoch, wenn es sich thematisch um vermeintliche Endeffekte der Digitalisierung dreht. In der immer wieder aufgewärmten Diskussion darüber, ob das Internet uns (vor allem: Kinder und Jugendliche) süchtig und/oder dumm macht, stellt man neuerdings dem Digitalen auch rein sprachlich das Analoge gegenüber.

Sich über „soziale Netzwerke“ auszutauschen und Kontakte zu pflegen, ist demnach eine digitale Angelegenheit und qualitativ keinesfalls so ergiebig, als ob man das analog tun würde. Wobei man mit „analog“ irgendetwas zu meinen scheint wie „in echt“, also: sich gegenüber sitzend, Auge in Auge.

Und demnach ist das Aufsetzen einer eMail eine digitale Handlung, auch wenn man das ganz in echt mit den eigenen Fingern vornimmt. Mit dem Kugelschreiber dagegen schreibt man nicht mehr nur einfach etwas auf, sondern man notiert es analog. Parallel dazu wäre es besser, wenn Kinder nicht digital an der Spielkonsole sitzen, sondern analog Fußball spielen, also: in echt, draußen auf der Wiese, an der frischen Luft und so.

Da fragt man sich glatt, wie viele Menschen bei der kürzlichen Umstellung auf die Sommerzeit ihre Digitaluhren analog eingestellt haben, und wie das bei Funkuhren digital funktioniert, und trotzdem ganz in echt.


Mittwoch, 19. März 2014

chaotisch belehrt

Na, das musste ja irgendwann passieren. Da kommt unser Junior von der Grundschule nach Hause, und präsentiert ein Arbeitsblatt, das die elterlichen Bildungsbemühungen glatt zunichte macht. Dabei liegt das größere Problem zunächst nicht einmal in der schulisch verabreichten Fehlbildung, sondern darin, wie man nun darauf reagieren soll.

„Papa…“, bekam ich einleitend von unserem Junior zu hören, „…wir haben heute Wörter mit ‚Ch’ gelernt, und ich habe ein Rätsel für dich: Wenn die Mama in mein Zimmer guckt und da liegt ganz viel durcheinander herum, weißt du, wie man das nennt?“. Ich ahnte Fürchterliches: „Hm. Nun sag`nicht: Chaos?“ …und wurde in meiner Ahnung bestätigt: „Ja, genau!“.

Und tatsächlich: Auf einem Arbeitsblatt waren vorgegebene Worte, beginnend mit „Ch…“, verschiedenen vorgegebenen Umschreibungen zuzuordnen, so unter anderen das Wort „Chaos“ der Umschreibung „großes Durcheinander“.
Na, prima. Da muss man sich nun als Elternteil über die Autorität einer Lehrerin erheben, die ein Erstklässler noch als unantastbar betrachtet. Und man muss seinem Kind erklären, dass in der Schule auch schon einmal etwas Falsches gelehrt wird. Eine knifflige Angelegenheit.

Denn: Chaos ist eben kein „großes Durcheinander“, wie die noch wehrlosen Grundschüler es noch nicht besser wissen können und lernen sollen, sondern Chaos ist der Begriff für „nicht-lineare Phasenübergänge“.
Tja. Mit diesem Wissen klingt es eher amüsant, wenn Erstklässler zum Begriffsverständnis erklärt bekommen, dass so etwas in ihrem Kinderzimmer stattfinden soll. Und mit diesem Wissen ist es eher unwahrscheinlich, dass eine Mama jemals zu ihrem Kind sagen wird „Na, was sind denn das schon wieder für nicht-lineare Phasenübergänge in deinem Zimmer?“.

Nun gut: Chaos ist im herrschenden Allgemeinverständnis immer noch ein „großes Durcheinander“. Sicherlich. Und mein Wissen jenseits der allgemeinen Verbreitung ist berufsbedingt. Ich kann nichts dafür, dass ich es anders weiß. Sicherlich. Aber was heißt das beides schon? Allgemeinverständnis hin oder her, kann ich nicht erwarten, dass immerhin in der Schule das korrektere Wissen vermittelt wird? Oder muss man tatsächlich die institutionell verordnete Fehlbelehrung hinnehmen?

Oder soll ich mich einfach nicht so anstellen und doch nicht so penibel sein? Entschuldigung, aber hier geht es eben nicht um intellektuellen Kleinkram. Irgendwann einmal soll(t)en Kinder lernen, dass Chaos ein „Aufschaukeln von Effekten“ beinhaltet („kleine Ursache, große Wirkung“), sowie die Fähigkeit von Systemen zur Selbstregelung („Autopoiesis“), dass chaotische Vorgänge permanent und überall in der Natur stattfinden, dass Chaos ein Naturgesetz und ein Hauptmerkmal des Lebens ist…

…wie soll ein Kind dafür ein Verständnis entwickeln, wenn man ihm vorher in den Kopf gesetzt hat, dass Chaos ein „großes Durcheinander“, ein „Drunter-und-Drüber“, eine „gewaltige Unordnung“ sei? Warum belehrt man Kinder erst einmal mit diesem Fehlverständnis, um das später irgendwann mühsam korrigieren zu müssen?
Nein, man macht es sich viel einfacher: das geschieht in der Regel gar nicht, sondern man belässt es einfach dabei. Das Ergebnis ist dann die allgemeine Verbreitung einer Fehlbildung, die man mit ihrer allgemeinen Verbreitung begründet, ansonsten möge man bitte nicht so penibel sein.

Und das… in unserem deklarierten Bildungszeitalter des Lernens und des Wissens. Und kaum, dass man sich das von der Seele gebloggt hat, kommt der Nachwuchs von der Schule nach Hause und berichtet stolz, „die 5 Sinne des Menschen“ gelehrt bekommen zu haben. Oh, Gott…

Erkennen Sie das „50-Prozent-Denken“ in dieser Thematik? 
Finden Sie es heraus: www.wirkung.biz

Montag, 24. Februar 2014

eigentümlich gespeichert

Im Zuge der Französischen Revolution wurden unliebsam gewordene Mitmenschen öffentlich enthauptet – bis zu 300 an einem Wochenende. Da wurde das manuelle Henkern mit dem Schwert irgendwann zu ineffizient und man erfand die Guillotine. Und heute? Vor zwanzig Jahren hatte man Formulare und Karteikarten. Das war ineffizient. Heute wird einfach alles verchipt und vernetzt. 

Einer Umfrage zufolge prallt die „Faszination Auto“ an immer mehr Jugendlichen ab. Die aufwachsende Generation favorisiert den Öffentlichen Personennahverkehr, u.a. aus Umweltschutz- und Kostengründen. Auf die Frage, wie man die Vehikel für die jungen Menschen wieder interessant machen kann, antwortete der Manager eines Automobilkonzerns: „Wir müssen das Auto in Zukunft besser vernetzen“. Aha.

Eine solche Feststellung hätte noch vor 20 Jahren ziemlich merkwürdig geklungen. Heute klingt so etwas schon fast plausibel. Was wiederum genauso merkwürdig anmuten kann. Das hängt vielleicht vom Lebensalter ab. Vielleicht auch davon, wie viel man darüber nachdenkt; und: ob überhaupt.

Früher jedenfalls fuhr man ein Auto, um von A nach B zu kommen. Später dann, um mit allerlei Sicherheits-Schnickschnack einen schweren Unfall zu überleben. Und nun… fährt man Auto, um „besser vernetzt“ zu sein, mit wem oder was auch immer.

Dabei verarbeiten Automobile heute bereits etliche Daten, aus denen problemlos Rückschlüsse über Fahr- und sonstige persönliche Gewohnheiten möglich sind, von Bewegungsprofilen ganz zu schweigen, z.B. mittels Airbag-Steuersystem, Navigationssystem und Einparkhilfe. Noch ganz abgesehen von „eCall“, einem Auto-Notruf-System, das nach EU-Anweisung in jedes ab 2015 hergestellte Auto eingebaut sein muss. So fährt man praktisch in einem blechernen Dauersender herum.

Und das produziert merkwürdige, dafür aber zeitgemäße Probleme, etwa die Frage nach einem Datenschutz fürs Autofahren. Oder wie der Präsident des Bayerischen Landesamtes für Verfassungsschutz, Thomas Kranig, meinte: „Wir wissen nicht genau, wer Eigentümer dieser Daten ist, der Käufer des Fahrzeuges, oder möglicherweise jemand anders; wir wissen nicht, wer diese Daten auslesen darf, die Polizei, die Staatsanwaltschaft, eine Kfz-Werkstätte, oder möglicherweise der Hersteller“.

Das ist mal eine Frage: Wem gehören die Daten? Da wird ganz nebenbei auch der Begriff „Eigentum“ verhackstückt. Ab wann und bis wann genau „gehört“ mir eine Information ganz alleine? Darf ein gelangweilter Rentner den Hobby-Blockwart spielen und die amtlichen Kennzeichen falschgeparkter Autos notieren, mit Datum und Uhrzeit? Oder darf er das alles nur im Kopf behalten? Oder nicht einmal das?
Oder ist der Eigentümer dieser Daten der Autofahrer und/oder der Autobesitzer, weil seine Fahrten schließlich seine Privatangelegenheit sind; auch wenn er sich im öffentlichen Raum bewegt, oder gerade deshalb eben nicht? Handelt es sich dabei überhaupt um Daten? Oder nur um Information? Oder beides? Oder weder-noch? „Gehören“ einem dann zwar die Daten, nicht aber die Informationen? Oder umgekehrt? Oder wird aus Informationen erst durch Speichern ein Datensatz? Ist dann die Notiz des Rentners auf einem Zettel bereits eine Form von „Speichern“ oder noch-nicht? Oder wird das erst kritisch, wenn die Notiz von irgendwem gelesen, also: „ausgewertet“ wird?

Die Selbstverständlichkeit mit der sich im Domino-Effekt heute solche Fragen ergeben, ist (siehe oben) einigermaßen merkwürdig. Und es dürfte noch merkwürdiger werden, wenn das Ganze nach Internet und Smartphone, eMail, „Facebook“ & Co. nun auch datensendende Kraftfahrzeuge und Fernseher, bald auch Armbanduhren („SmartWatch“) und Brillen („Google Glass“), in Zukunft den gesamten Haushalt, Kühlschränke, Thermostate, etc betrifft.

Vielleicht sollte man der Gesamtproblematik zuvor kommen, indem zukünftig und/oder rückwirkend die Eltern für ihre Neugeborenen eine Lebensdatenschutz- oder gleich eine -überlassungserklärung gegenzeichnen müssen.

Dienstag, 18. Februar 2014

verbogene Intelligenz

Bei dem Stichwort „künstliche Intelligenz“ pendeln die Reaktionen irgendwo zwischen Verängstigung und Begeisterung. Manch einem wird mulmig bei dem Gedanken an „selbstständig denkende“ und „handelnde“ Maschinen, andere können kaum erwarten, bis es so weit ist. Beides ist ziemlich unnötig. Jedenfalls so lange dabei fahrlässig von „Intelligenz“ geredet wird.

Einmal ganz abgesehen von Roboter-Visionen: In der alltäglichen Gegenwart existiert bereits „intelligenter“ Beton. Damit gemeint ist tatsächlich der bekannte Baustoff. Beton eben. Nur: „intelligent“. Etwa Beton, der mit Nanoröhrchen aus Kohlenstoff angereichert ist. Dem Straßenbelag beigemischt wird es damit u.a. möglich, die Geschwindigkeit von Fahrzeugen zu messen, könnte also in Zukunft u.a. die klassischen Radarfallen ersetzen – dann spricht man am Ende noch von „intelligenten Straßen“.
Der „Chronos Chromos Complete“ wiederum ist ein Beton, dem thermochrome Farbe beigemischt wird: Bei Erwärmung verändert der Beton seine Farbe, bei Bedarf: punktgenau. Große Betonflächen, Brückenpfeiler, Wände, können so als Anzeige- und Werbetafeln verwendet werden.

Dass so etwas bereits als „intelligent“ bezeichnet wird, offenbart weit weniger grandiosen technischen Fortschritt als vielmehr das Verbiegen und Vermurksen des Begriffes „Intelligenz“ und was man darunter versteht. Man sollte vielleicht ein waches Auge darauf haben, was in Zukunft sonst noch mit diesem Begriffsverständnis getrieben wird.

An der TU Braunschweig wird etwa mit freundlicher Unterstützung von „Google“ an einem Automobil gebaut, das „selbstständig“ fährt und lenkt („Leonie“). Die vermeintlichen Vorzüge dieser Auto-Vision werden damit angepriesen, dass die Komplettsteuerung per Computerchip schließlich viel sicherer sei. Und das klingt dann alles schon eher – vermeintlich – intelligent...

Ein Computer kann Situationen schneller erfassen und was noch wichtiger ist, schneller reagieren“, sowie „Es gibt keine Schrecksekunde, der Computer kann sofort handeln“ und „Die leistungsstarken CPUs sind schon vorhanden, die Lidar-Technik und andere Sensorik kann problemlos die Umgebung erkennen und die Roboterautos können mit anderen Autos kommunizieren“.

Mag sein, dass technikbegeisterte Menschen vor allem die grandiose Technik sehen wollen und weniger die Erklärung. Es sollte umgekehrt sein. Denn vor allem sind solche Erklärungen eines: Eine plumpe Frechheit, schnöde elektrische Apparaturen nicht nur als „wie lebendig“ darzustellen, sondern als dem Menschen, dem Leben an sich überlegen. Jeder Fadenwurm ist lebendiger und intelligenter.

Um – beispielhaft – bei computergesteuerten Automobilen zu bleiben: Weder das Auto, noch der Computerchip, die Kupferdrähte oder Lötstellen, noch das zusammengeschweißte und -geschraubte Blech und das Plastik „erfassen“ oder „erkennen“ irgendetwas, „reagieren“, „handeln“ oder „kommunizieren“. Sämtliche verarbeiteten Bauteile sind – trivial formuliert – strohdoof. Das einzige, was hier „arbeitet“ (und noch nicht einmal dieser Begriff ist hier angebracht), ist programmierte Software. Und das einzige, was hierbei stattfindet, ist bloße Simulation. Das vergleichsweise mickrige Kopieren von etwas, das wir mit unseren Sinnen zu erkennen glauben, das Simulieren von (u.a.) „Bildern“, die es in der Realität nicht gibt.

Was von maschineller „Intelligenz“ dann übrig bleibt, ist so letztlich die Simulation einer Realität, die nicht existiert. Das ist weder „Intelligenz“, noch ist es intelligent, hierbei von Intelligenz zu reden. Es ist allenfalls: clever.

Erkennen Sie das „50-Prozent-Denken“ in dieser Thematik? 
Finden Sie es heraus: www.wirkung.biz

Donnerstag, 13. Februar 2014

vertwixt nochmal

Es ist schon einige Jahre her, als mit einem werbemedialen Heidenaufwand verkündet wurde „Aus Raider wird jetzt Twix“, damit das im Zeitalter der Informationsflut auch bloß jeder mitbekommt. Aus heutiger Sicht muss man schon fast dankbar dafür sein. Anderes nämlich wird einem klammheimlich untergeschoben.

Ich weiß noch ziemlich genau, dass in meiner Teenagerzeit die Hauptstadt von Mexiko noch Mexiko-City hieß. Plötzlich irgendwann – das wiederum weiß ich eben nicht mehr genau – wurde ausschließlich nur noch von Mexiko-Stadt gesprochen. Im Zeitalter der Verdenglischung hätte man das eher umgekehrt erwarten können und heißt es erstaunlicherweise immer noch New York City und nicht New York Stadt.

Eine andere Erinnerung, die zwischen meinen Synapsen abgelegt ist, betrifft die Hauptstadt von Südkorea, nämlich Seoul, und zwar in diesem Fall die Aussprache. Ziemlich genau bis zu den dortigen Olympischen Sommerspielen im Jahr 1988 sprach man phonetisch von „Se-Uhl“, beide Silben getrennt betont. Seit dem Vorfeld der Olympiade spricht man es wie die englische Seele: „soul“.

Ebenso klammheimlich wurden dem Irak und dem Iran jeweils der vorangestellte bestimmte Artikel entwendet. Noch nicht überall und immer, aber immer öfter explodieren Autobomben nicht mehr „im“, sondern „in“ Irak, und nicht mehr „der“ Iran, sondern nur noch Iran soll an Atomraketen basteln.

Wer hier aus welchem Grund an unserer Sprache herumdoktert, das darf man nicht erfahren, und werden keine Informationskampagnen gestartet. Man darf sich lediglich kurz wundern und muss eben selbst etwas aufpassen, bevor man unversehens, von heute auf morgen, sprachlich peinlich stolpert. Oder gar den Verstand verliert. Nach Wittgenstein: „Sprache kann den Verstand verhexen“.

Das Ganze übrigens auch im alltäglichen Alltag. Vor etwa zehn Jahren sah ich beim Flanieren in Österreich in jedem zweiten Laden Schilder mit der etwas ungewöhnlichen Aufschrift „Sale“. Ein paar Jahre später begann dieses Wort auch hierzulande den „Schlussverkauf“ zu ersetzen und sprechen ganz normale Menschen in völliger Normalität davon, beim „Sale“ ein Schnäppchen gemacht zu haben.

Als im letzten Jahr unser Sohn eingeschult wurde, stieß ich in den elterlichen Vorbereitungsmaßnahmen darauf, dass es in den Grundschulen u.a. keinen „Eskimo“ mehr gäbe, weil das auf Deutsch ein „Rohfleischesser“ und doch irgendwie diskriminierend sei, und unsere Kinder das nicht mehr lernen sollen, sondern ersatzweise „Inuk“ (Plural: Inuit).
Und was passiert: Unser Sohn wird eingeschult, bekommt u.a. ein Lehrbuch für Deutsch ausgehändigt, in dem doch tatsächlich irgendwo von einem Eskimo die Rede ist, kein Inuk weit und breit. Vielleicht liegt es daran, dass Sprachforscher inzwischen herausgefunden haben wollen, dass ein Eskimo nun doch kein Rohfleischesser ist, sondern ein Schneeschuhflechter.

Und „Twix“ hieß zwischenzeitlich dann doch wieder „Raider“ und nun doch wieder „Twix“, es sei denn, ich habe etwas verpasst. Wo man seit der letzten Wahl kaum noch etwas von der FDP hört, muss ich das gleich einmal prüfen. Vielleicht heißt sie jetzt nur anders.

Dienstag, 11. Februar 2014

durchschnittlich genial

Wie ein Spitzenkoch letztens erklärte, sind Jungköche, die bei ihm in die Lehre gehen, durchgehend überrascht vom Geschmack einer „echten“ Sauce Hollandaise – weil durchgehend alle nur den Durchschnittsgeschmack der Fertigsaucen kennen. Der Sieg des Durchschnitts über das Geniale. 

Nach längerer Zeit bin ich kürzlich mal wieder auf Rüdiger Gamm gestoßen. Der Mann ist seit mehreren Jahren als „Superhirn“ und „Gedächtnisgenie“ bekannt und vollführt enorme, vornehmlich mathematische Leistungen, über die Otto Normalmensch nur staunen kann.

Gern gestellt wird dabei die Frage „Wie macht er das nur?“. Nicht verwunderlich, dass Rüdiger Gamm zwischenzeitlich so bereits zum Forschungsobjekt von Hirnforschern wurde. Im Zeitalter von Computertomographie und Magnetenzephalogrammen muss das Geheimnis schließlich irgendwo in seinem Gehirn verborgen liegen. Wo sonst.

Der Savantforscher Prof. Allan Snyder wiederum ist der Ansicht „Genius Is In Everyone“ – potenziell hat jeder von uns das Zeug zum Genie. Mit anderen Worten: Höchstleistungen erfordern keineswegs ein außergewöhnliches „Superhirn“, sondern sind jedem von uns, mit unserem ganz gewöhnlichen, konventionellen Alltagsgehirn möglich. Wir nutzen diese Möglichkeiten einfach nicht.

Ich teile diese Auffassung. Ich würde jedoch zu der umgekehrten Frage anregen. Nämlich nicht danach, was jemanden zu einem „Superhirn“ macht, oder wie jeder von uns ein Genie werden kann. Sondern ich würde erst einmal fragen, was eigentlich den massenhaften Durchschnitt ausmacht und warum. Was außer(-)gewöhnlich ist, bemisst sich schließlich am Gewöhnlichen, und eine über(-)durchschnittliche Leistung verdankt ihre nackte Existenz dem Durchschnitt.

Über ein paar gedankliche Streifzüge gelangt man zu der etwas unpopulären Erkenntnis, dass unser Bildungssystem, von der Schulbildung über „PISA“, Fortbildung und Weiterbildung bis zur „Bildungsoffensive“ keineswegs darauf ausgerichtet ist, außergewöhnliche Genies zu produzieren - sondern Durchschnitt. Der Durchschnitt, durchschnittliche Fähigkeiten und durchschnittliche Leistungen sind als Maßstab gesetzt, den es zu erfüllen gilt; festgelegt in Lehrplänen, überprüft in Lernzielkontrollen, nachhaltig zementiert durch Förder- und Bildungsmaßnahmen aller Art.

Für den Nichterfüllungsfall, für den Fall des Unterdurchschnittlichen, hat man jede Menge Präventions- und Gegenmaßnahmen erfunden – für diejenigen, die das Potenzial zum Genie haben, hat man… gar nichts. Besser als „sehr gut“ im Erfüllen der Durchschnittsanforderung kann man eben nicht sein. Den Betroffenen steht schließlich ohnehin eine glänzende Karriere bevor. Oder mehrere Psychotherapien, weil die Symptome der notorischen Unterforderung fehlgedeutet werden.

Andererseits: Wo kämen wir auch hin, wenn wir nur noch Genies hätten? Wenn es von Außer(-)gewöhnlichen nur so wimmelt, wenn es keine breite Masse des Gewöhnlichen mehr gäbe?
Wir hätten keine „Mittelschicht“ mehr, die gern als „Fundament der Stabilität“ in Wirtschaft und Demokratie betrachtet wird: Irgendwo schwebend zwischen der Aussicht „nach oben“ zu kommen und der Angst vor einem „sozialen Abstieg“.
Wir hätten keinen Massengeschmack mehr und keine Massenproduktion für einen Massenbedarf, weder für Mode und Lebensmittel, noch für Medikamente und Therapien, keinen gewöhnlichen Maßstab mehr für Plattenverkäufe und Pop-Charts, Buchverkäufe und Bestseller, Kinofilme und „Kassenschlager“, für Einschaltquoten, und für das, was ein „Star“ ist, überhaupt: ein „Erfolg“.

Nein: Die breite Masse des Durchschnitts ist dringend erforderlich, ansonsten würden mehrere Welten zusammenbrechen. Gut, dass das jemand erfunden hat. Das muss ein Genie gewesen sein.

Erkennen Sie das „50-Prozent-Denken“ in dieser Thematik? 
Finden Sie es heraus: www.wirkung.biz

Mittwoch, 29. Januar 2014

mächtig vergoogelt.

Wir alle sind Kinder des „Fordismus“. Ein Begriff, der in der Tat auf Henry Ford zurückgeht, dem Erfinder der Produktion von Automobilen am Fließband, damit gemeint: eine Gesellschaft des Massenkonsums von Massenware, produziert durch Massenarbeit. In ein/zwei Jahrzehnten leben wir vielleicht im „Googleismus“. Es deutet einiges darauf hin. Anderes wiederum nicht.

Die durch ihre gleichnamige Internet-Suchmaschine bekannte Firma „Google“ investiert seit ein paar Jahren wahre Unsummen in verschiedenste Projekte: Zum Beispiel in die Tochterfirma „Calico“, die sich mit „Gesundheitsfragen“ beschäftigen soll, insbesondere mit dem Älterwerden und den damit verbundenen Krankheiten, genauer gesagt: mit Biotechnologie. Und zum Beispiel in den 3-Milliarden-Dollar-Aufkauf des Haushaltsgeräte-Produzenten „Nest Labs“. Und zum Beispiel in die Übernahme des Roboter-Herstellers „Boston Dynamics“ für 1,2 Milliarden Dollar. Und zum Beispiel an der TU Braunschweig in die Entwicklung eines computergesteuert-selbstfahrenden Automobils („Leonie“) .

„Google“ ist eben keine Suchmaschine mehr. Schon lange nicht mehr. Vielleicht war es das auch noch nie. „Google“ ist eine Werbeagentur, die Werbeflächen verkauft, und zwar möglichst „zielgenau“, nicht nur auf Gruppen von Menschen („Zielgruppen“) gepeilt, sondern höchstindividuell, auf den Einzelnen abgezielt.

Dazu will „Google“ möglichst viel über jeden Einzelnen in Erfahrung bringen. Und da sind auch „intelligente“ Thermostate hilfreich, die ganz nebenbei aus allerhand Messdaten schließen lassen, wie viele Personen sich wann und wie lange in welchen Räumen befinden. Daten aus vernetzten Automobilen, aus denen ermittelt werden kann, wer sich wann wohin bewegt und sich wo und wie lange aufhält. Bis hin zum „intelligenten“ Kühlschrank, aus dessen Datensammlung ermittelbar wird, wer was wie oft kauft. Und vieles mehr, und das auch noch in Kombination. Das werden noch immense Herausforderungen für die Datenschützer.

Das Ganze verpackt als harmlose Vision des „total vernetzten Haushaltes“ ist „Google“ scheinbar unaufhaltsam dabei, unseren Alltag komplett zu durchdringen. „Scheinbar unaufhaltsam“, denn schließlich leben wir in einer freien Marktwirtschaft, in der „Google“ nach Belieben unternehmerisch investieren kann.

Und „scheinbar unaufhaltsam“, weil die Zukunft vielleicht doch nicht dort liegt, wo sie allgemein vermutet und erwartet wird, in der totalen Vernetzung, im „Internet der Dinge“. Wer alt genug ist, erinnere sich an die Visionen für das ominöse „Jahr 2000“… fliegende Autos, Siedlungen auf dem Mond… doch das, was tatsächlich kam, das Mobiltelefon und das Internet, das hat niemand vorausgesehen. Im Alternativfall wird in zehn Jahren kaum noch jemand wissen, was „Google“ einmal war.

Erkennen Sie das „50-Prozent-Denken“ in dieser Thematik? 
Finden Sie es heraus: www.wirkung.biz

Donnerstag, 16. Januar 2014

Mathematisch präzise daneben.

Die Welt wird von Mathematikern erklärt und eines Tages von Mathematikern vor dem Untergang gerettet werden. Mit einiger Wahrscheinlichkeit wird das an einem späten Abend passieren, getarnt als „Bildungsfernsehen“ und gut versteckt in einem der „Dritten“ TV-Programme. Und das wohl auch: zurecht.

Mit der Mathematik stand ich schon immer auf Kriegsfuß. Ich gebe unumwunden zu, dass ich in dieser Thematik schon alleine deshalb nicht neutral sein kann und das auch einen guten Teil meiner Skepsis gegenüber Zahlenspielereien, Statistiken, Studien undsoweiter ausmachen dürfte.

Dabei hege sogar ich eine leichte Bewunderung für bestimmte Leistungen, die durch das Berechnen von Zahlen möglich sind. Zum Beispiel einen Roboter („Curiosity“) zu Erkundungszwecken bis auf den Mars zu befördern, der dort auch noch jahrelang unfallfrei seine Runden dreht, Bodenproben analysiert und Bilder und Daten zur Erde funkt. Das ist immens beeindruckend und gehört mit allem Respekt als enorme Leistung anerkannt.

Davon abgesehen frage ich mich dennoch: Was soll das eigentlich? Es handelt sich dabei um einen der recht seltenen Fälle, in denen die Antwort die selbe Frage provoziert. Diese Antwort lautet: Wir erfahren dadurch mehr über die Geschichte des Mars und die Entstehung des Universums. Das ist natürlich ganz, ganz toll. Aber erneut: Was soll das?

Auch davon einmal abgesehen wurde kürzlich durch zwei Experten an der University of Nottingham, Edmund Copeland und Tony Padilla, bewiesen, dass die Summe sämtlicher positiven Zahlen von 1 bis Unendlich erstaunlicherweise eine negative Zahl ergibt, nämlich minus 1/12, also: 1 + 2 + 3 + 4 + … = -1/12. Vielleicht noch erstaunlicher, dass dieses erstaunliche Ergebnis tatsächlich in der Physik praktisch angewendet wird.

Und auch davon einmal abgesehen, ist das umso erstaunlicher, als dass der Mathematiker Kurt Gödel schon im Jahr 1931 mathematisch bewiesen hat, dass es Aussagen gibt, die man weder beweisen, noch widerlegen kann: Der „Gödelsche Unvollständigkeitssatz“, quasi der Beweis der Unbeweisbarkeit, der zweifellose Beweis, dass sich nichts beweisen lässt - - was übrigens nicht zuletzt ebenso bedeutet: auch für die Mathematik an sich gibt es keinen Beweis! Anders gesagt: Die Mathematik ist nicht in der Lage, sich selbst mit ihren eigenen Mitteln zu beweisen.

Als unmathematischer Laie kann man über so etwas hinwegsehen und sich die mathematischen Experten auf ihrer Spielwiese austoben lassen. Doch auch und zuweilen gerade, wenn einem als Laie das Widersprechen nicht gestattet ist, sollte und muss man es hier und da tun. Nämlich gerade in Fällen, wo sich der Experte auf ein Fachgebiet wagt, auf dem er selbst Laie ist.

Etwa, wenn in der Abteilung „Bildung“ eines der „Dritten“ Fernsehprogramme ein Professor für Didaktik der Mathematik, Prof. Dr. Ulrich Kortenkamp, freihändig behauptet (sinngemäß): Er glaube nicht, dass Übergewicht in den bildungsfernen Schichten aus Veranlagung auftritt. Sondern das sei eben das Ergebnis, wenn man nicht versteht, was auf den Packungen geschrieben steht.

Natürlich darf ein Herr Kortenkamp so etwas sagen. In unserem Land herrscht Meinungsfreiheit. Ganz privat darf er das glauben und äußern. Doch als Professor Doktor in der Sendung eines öffentlich-rechtlichen Bildungsfernsehens darf er das – zumindest – nicht unwidersprochen, wenn überhaupt. Erst recht, wenn es thematisch eigentlich um Mathematik geht.

Ansonsten müsste sich der Prof. Dr. für Didaktik der Mathematik die Frage gefallen lassen, inwiefern es ihm seine mathematische Kompetenz erlaubt, über Menschen zu urteilen? Und wie und warum sein Fachbereich und seine Fachkompetenz gestatten, über Ernährungsgewohnheiten von Menschen in „bildungsfernen Schichten“ zu reden, und was seiner fachlichen Ansicht nach eigentlich „bildungsfern“ ist(?).

Und man hätte ihn fragen können, ob denn wohl ein Bürger mit durchschnittlicher Bildung – oder vielleicht sogar er selbst als Akademiker – in der Lage ist zu erklären, was der Verpackungsaufdruck „mit probiotischen Kulturen“ oder „mit bioaktivem Coenzym Q10“ genau bedeutet oder was genau eigentlich „Omega-3-Fettsäuren“ sind und bewirken?

Erkennen Sie das „50-Prozent-Denken“ in dieser Thematik? 
Finden Sie es heraus: www.wirkung.biz