So lässt sich die Bundesregierung die Zukunft vorhersagen (erschienen bei 1E9 am 02.11.19)

Es gibt auch in der Politik ein Leben nach der nächsten Wahl. Das Bundesministerium für Bildung und Forschung hat ein „Zukunftsbüro“ und einen „Zukunftskreis“ damit beauftragt, die Welt von morgen vorherzusagen. Was bringt dieser wissenschaftliche Blick in die Kristallkugel?

„Die Zukunft ist keine sauber von der jeweiligen Gegenwart abgelöste Utopie: Die Zukunft hat schon begonnen. Aber noch kann sie, wenn rechtzeitig erkannt, verändert werden.“ – Robert Jungk, Zukunftsforscher

„Die beste Methode die Zukunft vorherzusagen besteht darin, sie zu erfinden.“ – Alan Kay, Informatik-Pionier

Im Bundesministerium für Bildung und Forschung, kurz BMBF, hat man einen Plan. Ein neu eingerichtetes „Zukunftsbüro“ soll zusammen mit einem „Zukunftskreis“, einem interdisziplinären Expertengremium aus den Bereichen Wirtschaft, Wissenschaft, Kultur und Zivilgesellschaft, Szenarien erarbeiten – und zwar für „mögliche, wahrscheinliche und wünschenswerte Zukünfte“ bis zum Jahr 2030. 6,5 Millionen Euro lässt sich der Bund das für die kommenden drei Jahre kosten.

In einer ersten Studie sollen Veränderungen von Wertevorstellungen und neue Arten der Wertevermittlung in Deutschland untersucht werden. So weit, so abstrakt. Konkret könnte es dabei, zum Beispiel, darum gehen, auf wie viel Privatsphäre die Menschen verzichten würden, wenn es um ihre eigene, digitale unterstützte Gesundheit geht.

„Strategische Vorausschau“, auf Englisch: Foresight , nennt sich das neue Arbeitsfeld im BMBF, das gar nicht so neu ist. Es ist vielmehr eine Fortsetzung von zuvor angestoßenen „Foresight“-Prozessen aus den Jahren 2007 bis 2009 und 2012 bis 2014. Der erste Prozess hatte das Ziel, technologische Zukunftsfelder zu identifizieren. Beim zweiten wurde untersucht, wie diese mit dem gesellschaftlichen Alltag zusammenlaufen. Zu den Methoden bei der Vorausschau im Regierungsauftrag gehörten Literaturrecherchen, Experten-Interviews, Workshops und Analysen, also vorwiegend qualitative Methoden

Neun Geschichten aus dem Jahr 2030
Als Ergebnis wurden neun „Innovationskeime“ identifiziert, die 2015 in neun „Geschichten aus der Zukunft“ präsentiert wurden – ob über „Arbeitskollege Computer“, „Privatsphäre im Wandel“, „Kollaborativ-Wirtschaft“ oder „Deutschland Selbermachen“. Hier eine kleine Leseprobe aus der letztgenannten Geschichte:

Tinka öffnet den WerkRaum wie immer gegen 9:30 Uhr. Sofort beginnt es, aus der Kochecke zu brodeln, bunt zu blinken und zu pfeifen. Sie grinst. Scheinbar funktioniert das KaffeeBot nun endlich, nachdem die vier Mädels aus der Schule von nebenan wochenlang daran rumgebastelt hatten – da hat es wohl doch an dem optischen Sensor gelegen. „Wow!“ Bei näherer Betrachtung bemerkt sie, dass eine extragroße Menge Kaffee gekocht wird. Da haben die cleveren Mädels es doch tatsächlich geschafft, den Bot an den WerkRaum-Kalender anzuschließen, sodass er selbst erfasst hat, dass heute Morgen eine große Gruppe kommt.

Die Voraussage für 2030, auf der die Geschichte beruht, ist die Entstehung einer gesellschaftlichen Selbermachen-Bewegung, in der traditionelle handwerkliche Fähigkeiten auf neue Technologien wie 3D-Drucker treffen – gepaart mit dem Wunsch nach mehr Nachhaltigkeit. Bisher lässt sich sagen, dass die Maker-Kultur zwar weiterhin regen Zulauf erhält, eine riesige, deutschlandweite Bewegung aber noch nicht entstanden ist. Auch von einer dezentral organisierten „Kollaborativ-Wirtschaft“ (Sharing Economy) aus einer der anderen Geschichten sind wir noch entfernt. Aber bis 2030 ist ja auch noch ein bisschen Zeit.

Wie zutreffend waren frühere Prognosen?
In die Zukunft schaut die Bundesregierung schon seit den 1980er Jahren – und seitdem immer häufiger und in immer mehr Formaten. 1992 und 1998 wurden die ersten Delphi-Studien in Auftrag gegeben, deren Methodik weiter unten erklärt wird. Vereinzelte Foresight-Prozesse gibt es seit den 1990er Jahren. Ebenfalls seit dieser Zeit ist das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag als feste Institution angesiedelt. Und im Jahr 2000 rief die damalige Forschungsministerin, Edelgard Bulmahn, den „Forschungsdialog Futur“ ins Leben, um Leitvisionen für Forschung und Entwicklung zu erarbeiten.

Die Politik hat also reichlich Material, auf das sie bei Entscheidungen für die Gestaltung der Zukunft zurückgreifen könnte – zumal die beauftragten Experten oft richtig lagen. Vielen Thesen der älteren Delphi-Studien über mögliche Zukünfte sind auch heute noch plausibel.

Doch es gab natürlich auch Prognosen, die nicht eintrafen. Auf eine Insulinkapsel zum Einnehmen, die zwischen 2005 und 2011 erwartet wurde, oder eine HIV-Impfung, die spätestens 2019 verfügbar sein sollte, warten wir leider weiterhin. Auch ein „weltumspannendes Netzwerk zur Überwachung von Umweltbelastungen auf der ganzen Erde, insbesondere ihrer Ausbreitung, […] das 24 Stunden lang in Echtzeit Daten empfängt, diese Informationen integriert, systematisch analysiert und sie dann weltweit verbreitet“ ist in dieser integrierten Form noch nicht einsatzbereit, obwohl es für 2008 bis 2015 antizipiert wurde. Auch die Einrichtung einer europäischen Regierung, die nationalstaatliche Souveränität ablöst, galt mal als Megatrend.

Zur „Verteidigung“ der Gremien muss man sagen, dass viele Thesen auch damals als unrealistisch eingestuft wurden. Aber: Sie wurden zumindest mal gedacht.

Von Delphi bis Zukunftsrad: So kommen Zukunftsbilder zustande
Wie kommen diese Bilder der Zukunft überhaupt zustande? Und wie lassen sie sich auf ein gesundes Maß an Realismus eindampfen und sinnvoll bewerten? Der „Zukunftskreis“ bedient sich laut eigener Aussage vier klassischer Methoden der Vorausschau, um „Zukunft zu gestalten und gestaltbar zu machen“: „Delphi-Technik“, „Szenariotechnik“, „Visioning“ und „Futures Wheel“.

Bei der Delphi-Technik, die nach dem antiken Orakel von Delphi benannt ist, liegt der Schwerpunkt auf der Befragung einer Gruppe von Experten. Jeder soll dabei zu konkreten Thesen über mögliche Zukünfte Stellung nehmen. Waren alle einmal dran, werden sie anonym über die Antworten ihrer Kollegen informiert. Dann müssen sie sich erneut äußern. So soll über mehrere Runden eine möglichst differenzierte Bewertung entstehen, die möglichst frei ist von Gruppen- und Interessensdynamiken. Eine mögliche These, die man heute zur Debatte stellen könnte, wäre beispielsweise, dass der Anteil autonomer Fahrdienste am öffentlichen Nahverkehr im Jahr 2050 25 Prozent betragen wird.

Bei der Szenariotechnik geht es darum, mögliche Szenarien für die Zukunft zu entwickeln und zu antizipieren, wie wahrscheinlich ihr Eintreten jeweils ist – basierend auf unterschiedlich gewichteten Einflussfaktoren. Ein autonomer öffentlicher Nahverkehr, zum Beispiel, hängt davon ab, ob zentrale technische Probleme gelöst werden können, das Vertrauen der Menschen in autonome Fahrzeuge steigt, die rechtlichen Rahmenbedingungen geklärt sind und so weiter. Aber welcher Faktor ist wirklich entscheidend für den Durchbruch auf dem Massenmarkt? Hier müssen die Zukunftsforscher gewichten.

Beim Visioning geht es darum, eine Vision zu entwickeln oder eine gemeinsame Leitidee, wie eine wünschenswerte Zukunft aussieht. Solche Ideen dienen der Orientierung – kleinteiligere, weniger bedeutende Ziele werden ihr untergeordnet.

Das Futures Wheel oder Zukunftsrad ist eine einfache Methode, deren Kern die Frage „Was wäre, wenn?“ ist. Mit ihr lassen sich die möglichen Auswirkungen von denkbaren zukünftigen Entwicklungen erschließen. Ein Beispiel: Wäre die Annahme „E-Scootern gelingt der Durchbruch im Massenmarkt“, resultiert daraus vielleicht eine Verbesserung der Parksituation in den Innenstädten, weil die Menschen weniger Auto fahren. Daraus ließe sich schließen, dass der Bau neuer Parkhäuser wenig sinnvoll ist.

Ausgehend von einer zentralen These entsteht ein exploratives Bild möglicher Entwicklungen, die dann weiter diskutiert werden können. Die Wahrscheinlichkeit, mit der diese Entwicklungen eintreten, ist dabei erstmal weniger relevant. Vielmehr geht es darum, den Möglichkeitssinn der Teilnehmer zu aktivieren. Das Futures Wheel ist also eine spezielle Form des Brainstormings. Ach ja. Klar ist übrigens, dass die Realität beim Thema E-Scooter momentan ziemlich anders aussieht als in der Beispiel-These.

Trends geben Hinweise auf die Zukunft, aber existieren sie überhaupt?
Um die meisten der erklärten Techniken anzuwenden, braucht man erst einmal Thesen und Annahmen, mit denen man arbeiten kann. Um diese zu entwickeln, haben die meisten Methoden der Zukunftsforschung eines gemeinsam: Sie extrapolieren Annahmen aus der Vergangenheit in die Zukunft. Extrapolation heißt, dass Prognosen auf der Grundlage unsicheren Wissens abgegeben werden.

Trends gelten dabei als Hinweise auf die Zukunft, die im Hier und Jetzt beobachtet werden können. So heißt es auf der Website des Zukunftsinstituts, einem der führenden Trendforschungsinstitute Deutschlands: „Trends sind Bewegungen ‚in eine Richtung‘. Sie zu beobachten ist Aufgabe des Trendforschers, der versucht, frühe Anzeichen und bestimmte Muster zu erkennen. Trends muss man nicht voraussagen. Sie finden nicht in der Zukunft, sondern in der Gegenwart statt: Es sind Veränderungen, die man nicht prognostizieren, aber identifizieren muss.“

Der Zukunftsforscher Christian Neuhaus von der Freien Universität Berlin attestiert Trends in einem Beitrag für die Zeitschrift für Zukunftsforschung sogar, dass es sie eigentlich gar nicht gibt. Trends würden nur für den Beobachter selbst existieren, meint Neuhaus, seien aber „als solche“ nicht in der Welt existent. Der Trendforscher gehe davon aus, dass die aktuelle Entwicklung sich in der nahen Zukunft fortsetzen wird, was – trotz Untermauerung durch Daten, Interpretation und Analyse – schlichtweg ein Glaube sei. Dennoch hält Neuhaus Trendforschung für alles andere als unnütz.

Was hilft die Zukunftsforschung?
Stattdessen eröffnet für Neuhaus der bewusste Umgang mit Trends und ihrer eingeschränkten Aussagekraft Chancen beim Entscheiden und Planen in Organisationen – allein schon deshalb, weil man sich durch die Trendforschung systematisch mit Entwicklungen, möglichen Einflussfaktoren und der Zukunft auseinandersetzt. Der Nutzen der Trends liegt für Neuhaus also in der Orientierungsleistung, die zu besseren Entscheidungen führt.

Für die Bundesregierung heißt das: Sie könnte das Orientierungswissen, das ihr die Zukunftsstudien liefern, für eine vorausschauende, gestaltende Politik nutzen – und etwa deutlich gezielter Förderprogramme starten oder Forschung unterstützen. Ob bisher aber wirklich handfeste Politik aus der Zukunftsforschung im Regierungsauftrag entstanden ist, ist ein unsicheres Ding. Wie die Zukunft selbst eben.

Link zur Veröffentlichung

Smartes Internet geht auch ohne 5G und neue Mobilfunkmasten (erschienen bei Perspective Daily am 11.10.2019)

Bild: The Things Network


Wenn der Kühlschrank mit der Smartwatch … »The Things Network« aus den Niederlanden lässt Dinge miteinander kommunizieren – günstig und umweltschonend. Sogar die Deutsche Bahn nutzt es schon.

Stell dir vor, alles wäre in Zukunft vernetzt: Dein Auto spricht mit anderen Autos die Verkehrslage ab, deine Smartwatch sendet deinem Arzt dein Langzeit-EKG und Industrieroboter kommunizieren an eine Leitstelle Auslastung und Verschleiß – und bitten, wenn nötig, um Reparatur …

Das sind nur ein paar Anwendungen aus der Vision des schlauen Internets der Zukunft, einem Internet der Dinge1, an dem gerade fleißig gearbeitet wird. Ob autonomes Fahren, Telemedizin oder die Industrie 4.0 – sie alle stehen dabei vor einem Problem: Wenn Geräte mit Geräten kommunizieren, fallen enorm viele Daten an. Und das ist den Mobilfunkanbietern in Deutschland 6,5 Milliarden Euro wert – der Preis, den sie für den aktuell schnellsten Mobilfunkstandard 5G dieses Jahr an die Bundesregierung gezahlt haben. Ein stolzer Preis, den sie sicher auf den Kunden umschlagen werden.

Doch schlaues Internet geht auch ohne 5G, wie ein findiger Niederländer mit seiner Initiative The Things Network (TTN) zeigt – und das schon heute weltweit.

So funktioniert »The Things Network« schon heute

86.550 Mitglieder (Stand: Oktober 2019) sind heute schon Teil des alternativen Netzwerks. Gegründet haben es Wienke Giezeman und Johan Stokking bereits 2015.

Giezemans Lösung2 setzt auf Vernetzung auf der Grundlage der lizenzfreien Funktechnik LoRa3. LoRaWANs (Long Range Wide Area Networks) können kleinere Datenmengen über Entfernungen von gut 10 Kilometern von einfachen Sensoren über Gateways auf einen Netzwerkserver und von dort in die Cloud übertragen – und wieder zurück. Der Netzwerkserver kann öffentlich, privat oder als On-Site-WAN (Daten verlassen den physikalischen Standort nicht) bereitgestellt werden. Letzteres ist vor allem für Anwendungen interessant, die sensible Daten nutzen – etwa in der Industrie2.

Die Infrastruktur von The Things Network ist dabei für alle kostenlos zugänglich. Eine Internetpräsenz dient den Teilnehmern als Anlaufpunkt für Diskussion, Hardware oder Support.

Das klingt nach einem Frickler-Projekt für begeisterte Netzwerk-Nerds? Weit gefehlt.

Technik für alle
Dass The Things Network funktioniert, beweist allein der rege Zulauf von Privatnutzern. Auch eine eigene jährliche Konferenz in Amsterdam zu dem Thema gibt es bereits. Und nun entdecken auch Kommunen und die Industrie die Alternative zu 5G. So hat beispielsweise die Deutsche Bahn einen Teil ihrer Bahnhofsuhren an ein LoRaWAN angeschlossen, damit sie immer pünktlich gehen. Im Kundenzentrum der Bahn scheinen Uhrenausfälle noch immer für ziemlich viel Unruhe zu sorgen.

Doch The Things Network will vor allem abseits der großen Unternehmen die Ideen des Internets von morgen befeuern – und zwar auch dort, wo Standards wie 5G noch lange auf sich warten lassen dürften: etwa auf dem Land, wo Bauern in Gebieten mit schlechtem Internet Tiere tracken oder ihr Weinfeld vollautomatisch bewässern können.

Es sind die Mitglieder der The-Things-Network-Community, die diese Anwendungen finden, erstellen und miteinander teilen. Und sie sind es auch, die den Flickenteppich der LoRaWANs in Deutschland mit ihrem Engagement ausfüllen. Gemeinschaftsarbeit statt Industriestandard: The-Things-Network-Gründer Wienke Giezeman fasste das im Rahmen eines TED-Vortrags 2017 so zusammen: »Wir sind der Beweis dafür, dass, wenn Sie Technologie für viele Menschen zugänglich machen, Lösungen für echte Probleme gefunden werden und nicht nur Lösungen, die ausschließlich auf Geschäftsmodellen basieren.«

Eine vollwertige Alternative zu 5G ist The Things Network allerdings nicht. Einerseits aufgrund der deutlich geringeren Datenrate, andererseits auch weil das Protokoll für Echtzeitanwendungen ungeeignet ist – dafür sind die Verzögerungen (Latenzen) bei der Datenübertragung einfach zu hoch.

Das ein oder andere (ganz persönliche) Vernetzungsproblem lässt sich mit LoRa aber sicher ganz praktisch und energiesparend lösen.


1 – Das »Internet der Dinge« (IdD) ist ein Sammelbegriff für Technologien einer globalen Infrastruktur, die es ermöglicht, Gegenstände miteinander zu vernetzen.
2 – Giezeman betreibt über »The Things Industries« ein IoT-Unternehmen, das beim Aufbau von »LoRaWAN«-Strukturen hilft. Ganz uneigennützig ist das Projekt also nicht.
3 – Das »LoRa«-Netzprotokoll wurde für sogenannte »Wide Area Networks« (WANs) entwickelt, für Netzwerke also, die sich über größere Entfernungen erstrecken. Die Datenübertragungsrate beträgt bis zu 50 Kilobytes pro Sekunde. Ein weiterer Vorteil: Mit »LoRa« lässt sich eine gute Gebäudedurchdringung erzielen. Die ist sogar besser als bei LTE.
4 – Für Sicherheit sorgt eine Ende-zu-Ende-Verschlüsselung mit 128 Bit-AES.

Link

Globales E-Health-Barometer sieht China vorn (erschienen bei e-health-com.de am 23.09.19)

Bild: © pickup – stock.adobe.com

Der Future Health Index 2019 zeigt, dass die Digitalisierung in vielen Ländern in der medizinischen Versorgung angekommen ist – nicht zuletzt in Asien. Und: Patienten wollen Zugriff auf ihre Daten.

Der von Philips jetzt zum vierten Mal in Auftrag gegebene Future Health Index ist ein internationales Stimmungsbarometer der Weiterentwicklung eines vernetzten Gesundheitswesens. Diesmal im Mittelpunkt: die Einstellungen von Patienten und medizinischem Fachpersonal zu elektronischer Patientenakte, Telemedizin und künstlicher Intelligenz. Die neuen Technologien sind da, doch werden sie auch eingesetzt? Wie sieht der digitale Alltag in den Krankenhäusern rund um den Globus derzeit aus? Und wie wirkt sich der Einsatz auf die Qualität der medizinischen Versorgung aus?

Der Future Health Index sucht nach Antworten auf diese Fragen. So setzen nach der diesjährigen Umfrage 76 % der befragten medizinischen Fachkräfte im Klinikalltag die elektronische Patientenakte ein, 61 % nutzen telemedizinische Anwendungen und 46 % Anwendungen der künstlichen Intelligenz. Auch der elektronische Datenaustausch ist in den meisten Ländern im medizinischen Alltag angekommen. So gaben 80 % der befragten medizinischen Fachkräfte an, bereits Patientendaten innerhalb der eigenen Einrichtungen mit anderen medizinischen Fachkräften auf elektronischem Weg ausgetauscht zu haben. Für den institutsübergreifenden Austausch von Daten trifft das hingegen nur für 32 % der Befragten zu. Als Hauptgründe für den fehlenden Austausch von Patientendaten zwischen den Institutionen wurden Datenschutz, Datensicherheit, fehlender Zugriff auf die entsprechenden Systeme und mangelnde Interoperabilität angegeben.

Eindeutiger Nutzen der EPA wird noch nicht gesehen

Obwohl die elektronische Patientenakte auf dem Vormarsch ist, verbinden viele medizinische Fachkräfte mit ihrem Einsatz noch keinen eindeutigen medizinischen Nutzen. Dennoch vertraten immerhin 69 % der Befragten die Ansicht, der Einsatz elektronischer Patientenakten würde sich positiv auf die Qualität der medizinischen Versorgung auswirken. Allerdings erwarten nur 59 %, dass sich durch den Einsatz elektronischer Patientenakten auch das Behandlungsergebnis für den Patienten verbessert.

Die Bedeutung telemedizinischer Anwendung wird von den medizinischen Fachkräften noch geringer eingeschätzt. 39 % der Befragten gaben an, bei ihrer täglichen Arbeit überhaupt keine Telemedizin einzusetzen. Nur gut ein Drittel der medizinischen Fachkräfte (33 %) bewertete den Einfluss der Telemedizin auf die Patientenerfahrung in den letzten fünf Jahren als positiv.

Auf Seiten der Patienten können sich hingegen 45 % den Einsatz von telemedizinischen Fernkonsultationen in nicht dringenden Fällen vorstellen, um schneller oder überhaupt auf medizinische Dienstleistungen zugreifen zu können. 71 % der befragten Patienten gaben an, schon mal einen Arztbesuch ausgelassen zu haben, obwohl eine medizinische Indikation für einen Arztbesuch bestand. Als Hauptgründe gaben die Befragten die Schwierigkeit der Vereinbarung eines Arzttermins, Zeitmangel, eine fehlende Überweisung vom Hausarzt oder die Nicht-Verfügbarkeit eines Spezialisten in der eigenen Region an.

KI: Sowohl Offenheit als auch Vorbehalte
Den Einsatz künstlicher Intelligenz kann sich eine Mehrheit der medizinischen Fachkräfte der Befragten beim Kennzeichnen von Anomalien (59 %), der Patientenüberwachung (63 %) und der Personal- und Patientenplanung (64 %) vorstellen. Beim Einsatz von künstlicher Intelligenz für Behandlungsempfehlungen, die Durchführung von Behandlungsplänen oder auch für die Diagnose haben mehr als die Hälfte der medizinischen Fachkräfte noch Vorbehalte.

Auch der wechselseitige Austausch von Gesundheitsdaten zwischen medizinischen Fachkräften und Patienten ist noch keineswegs im medizinischen Alltag angekommen. Zwar gaben zwei Fünftel (40 %) der medizinischen Fachkräfte an, ihre Patienten regelmäßig anzuweisen, Blutdruck, körperliche Aktivität und Gewicht mithilfe digitaler Technologien oder mHealth-Apps zu erfassen, jedoch nur ein Zehntel versicherte, dass die meisten oder alle ihrer Patienten auch Daten mit ihnen geteilt hätten. Nur ein Drittel (36 %) der Patienten, die Digital Health-Technologien oder mHealth-Apps verwenden, gaben an, regelmäßig Daten mit medizinischen Fachkräften auszutauschen. Als Hauptmotivation für das Tracken von Gesundheitsdaten nannten die befragten Patienten „Bequemlichkeit“ (42 %), „die Möglichkeit, mehr über sich selbst zu erfahren“ (35 %) und „mehr Kontrolle über die eigene Gesundheit“ (34 %).

Patienten wollen Datenzugriff
Laut der Studie hat die Mehrzahl der Patienten ein Interesse daran, in den Besitz der eigenen Gesundheitsdaten zu gelangen. So wünschten sich 63 % der Patienten, die noch ohne Zugriff Zugriff auf ihre elektronische Patientenakte waren, einen entsprechenden Zugriff. Hauptmotivation: bessere Verwaltung der eigenen Gesundheit (43 %), mehr Kontrolle (36 %) und Bequemlichkeit.

Die Autoren der Studie sehen die Möglichkeit des Patienten, auf die eigene elektronische Patientenakte zugreifen, als Schlüssel für Bereitschaft des Patienten an, persönliche Gesundheitsdaten an medizinische Fachkräfte weiterzugeben. 84 % der Patienten mit Zugriff auf die eigene elektronische Patientenakte möchten, dass auch die eigenen medizinische Fachkräfte Zugriff auf die Daten haben. Insbesondere die jüngere Generation der medizinischen Fachkräfte (18 bis 34 Jahre) verspricht sich davon eine bessere Erfahrung für den Patienten. 40 % der Patienten über 55 gaben an, Digital Health-Technologien und mHealth-Apps möglicherweise eher zu verwenden, wenn sie von medizinischen Fachkräften eine entsprechende Empfehlung erhielten.

China und Saudi-Arabien vorn
Als Musterspiel für den Einsatz von Digital Health-Technologien gilt China. In China werden Technologien zum Tracken von Gesundheitsdaten (Blutdruck, körperliche Aktivität, Gewicht) von medizinischen Fachkräften nicht nur deutlich öfter empfohlen als im Gesamtschnitt der 15 untersuchten Länder, sondern Patienten, die diese Technologien nutzen, sehen in den damit erhobenen Daten auch deutlich öfter einen Anlass, einen Arzt aufzusuchen (80 % gegenüber 47 % im 15-Länder-Schnitt). Danach folgen Saudi-Arabien (74 %) und Indien (70 %).

China und Saudi-Arabien gelten als die Vorreiter bei der Einführung von Digital Health-Technologien. Aber auch Indien und Russland liegen laut der Studie in einzelnen Bereichen vorne. So neigt das medizinische Fachpersonal in diesen vier Ländern z. B. eher zur Einführung telemedizinischer Lösungen, was die Studie zum Teil auf die geringe Arztdichte und den Bedarf nach alternativen Versorgungsmöglichkeiten zurückführt. Auch ziehen beispielsweise die Patienten in China (44 %) und Russland (40 %) in nicht kritischen Fällen eine Fernkonsultation einem privaten Arztgespräch deutlich eher vor als im 15-Länder-Schnitt (27 %).

Mediziner in Asien trauen Patienten mehr digitale Kompetenz zu als in Europa

Insgesamt attestiert die Studie Digital Health-Technologien einen positiven Einfluss auf die Gesundheitsversorgung sowohl für das medizinische Fachpersonal als auch für die Patienten, betont aber die Unterschiede im internationalen Vergleich. So attestieren 80 % der medizinischen Fachkräfte in Asien der Verwendung der elektronischen Patientenakte im medizinischen Alltag einen positiven Einfluss auf die Qualität der medizinischen Versorgung, in den USA hingegen nur 51 %. Für ein „besseres Verständnis der eigenen Gesundheit“ schreiben 67 % des medizinischen Fachpersonals in Asien der Gesundheitsakte einen positiven Effekt zu, in europäischen Ländern sind es hingegen nur 31 %, was z. B. mit dem deutlich ausgeprägteren Einsatz von künstlicher Intelligenz im asiatischen Gesundheitswesen (66 % gegenüber 33 % in Europa) zusammenhängen könnte.

Auch was die Bedenken beim Teilen von Daten über verschiedene Institutionen hinweg angeht, gibt es deutliche Unterschiede zwischen den Kulturen. So machen den medizinischen Fachkräften in Asien vor allem der Datenschutz (68 % gegenüber 50 % in Europa) und die Datensicherheit (62 % gegenüber 48 % in Europa) Sorge, in Europa scheitert der Datenaustausch eher an einem Mangel an Interoperabilität (57 % gegenüber 42 % in Asien) und einem fehlenden Zugriff auf entsprechende Systeme (59 % gegenüber 38 % in Asien).

Der Future Health Index wurde 2016 von Philips ins Leben gerufen und gilt als repräsentatives Stimmungsbild für die Einstellungen und Wahrnehmungen im internationalen Gesundheitswesen im Rahmen der Einführung eines digital unterstützten Gesundheitswesens. Für die diesjährige Studie wurden 15.000 Einzelpersonen und über 3.100 medizinische Fachkräfte aus 15 verschiedenen Ländern (Australien, Brasilien, China, Frankreich, Deutschland, Indien, Italien, Niederlande, Russland, Saudi Arabien, Singapur, Südafrika, Polen, Vereinigtes Königreich und die USA) (online) zu ihren Einstellungen im Umgang mit digitaler Gesundheitstechnologie befragt.

Link zur Veröffentlichung

Dieser Browser will es besser machen als Google Chrome (erschienen bei Perspective Daily am 20.08.19)

Bild: Brave Software

»Brave« soll die Daten seiner Nutzer schützen und gleichzeitig den Werbemarkt im Netz neu regeln. Wie funktioniert das? Und reicht es, um der gigantischen Konkurrenz gefährlich zu werden?

Wer mit dem »Brave Browser« durchs Web surft, lernt das Internet ganz neu kennen. Altbekannte Seiten voller Werbebanner erstrahlen plötzlich in strahlendem Weiß. Denn: Der neue Browser macht mit Werbeanzeigen kurzen Prozess. Kein Bannerfeuerwerk, stattdessen endlich Ruhe und Ordnung für reizüberflutete User. Brave blockt Werbe- und Tracking-Technologien, egal ob Cookies, Fingerprints, Skripte oder sogar Social-Media-Anmeldebuttons. Gleichzeitig sollen bei Brave keine Nutzerdaten ins Netz übertragen werden.

Es ist kein Zufall, dass die Macher von Brave ausgerechnet mit besserem Datenschutz und einem besseren Umgang mit der Werbung den Angriff auf Google Chrome wagen, den Platzhirsch auf dem Browsermarkt. Denn während Chrome als technisch überlegen gilt, lebt Google von Daten und Werbung – und genau das ist immer mehr Nutzern ein Dorn im Auge.

Aber wie genau will Brave die Werbung und den Datenschutz neu regeln? Und reicht das, um die Kräfteverhältnisse im Netz neu zu mischen?

Werbung: Klasse statt Masse
Der Brave Browser soll das Verhältnis zwischen Werbetreibenden, Seitenbetreibern und -nutzern neu ordnen. Die Werbetreibenden stecken in einem Überbietungswettkampf gegen andere Werbung, laute, schrille Banner sind die Folge. Die Nutzer selbst sind – nun ja – genervt, wollen für Inhalte aber auch ungern bezahlen. Gleichzeitig sind die Seitenbetreiber auf Werbung angewiesen.

Deshalb will Brave die Werbung nicht komplett abschaffen, sondern in schlichtem Design anzeigen und die Einkünfte anders verteilen.

Doch klicken die User überhaupt noch, wenn es nicht blinkt und piept?

Die Macher von Brave behaupten: Ja! Die User würden, wenn sie selbst entscheiden könnten, ob sie eine Werbung überhaupt sehen möchten, den Werbeeinblendungen länger ihre Aufmerksamkeit schenken und so würden die Streuverluste für Werbetreibende deutlich verringert. Brave spricht von einer Klickrate von durchschnittlich 22,3%, also klickt im Schnitt jeder fünfte Nutzer, dem eine Werbung in Form einer schlichten Benachrichtigung angezeigt wird, auch darauf. Bei heute gängigen Werbenetzwerken liegt die Klickrate in der Regel bei 1–3%.

Laut Gründer und Geschäftsführer Brendan Eich, ehemals Chef der »Mozilla Corporation«1, soll zudem »bei 28% der erfolgten Klicks die Aufenthaltsdauer auf den Seiten, auf die die Werbung führt, mindestens 10 Sekunden betragen haben. Normalerweise verbringen User wesentlich weniger Zeit auf dieser sogenannten Landingpage.

Ein weiterer Vorteil für Nutzer: Durch die Interaktion mit den eingeblendeten Werbeanzeigen können sie auch selbst virtuelles Geld verdienen. Das Belohnungsprogramm »Brave Rewards« setzt dazu auf digitale Wertmarken2, die über Partnerprogramme etwa gegen Restaurant-Gutschriften, Übernachtungen bei beteiligten Hotelketten oder Geschenkgutscheine von Firmen wie Amazon oder Apple eingetauscht werden können. Ein Payback-Programm fürs Internetshopping, sozusagen.

Je mehr Aufmerksamkeit der User einem Werbeangebot widmet, desto mehr Tokens bekommt er auf sein Konto gutgeschrieben. Laut Brave sollen so 70% der Gesamtwerbeeinnahmen an den User gehen, die übrigen 30% landen bei Brave.

Brave Software hat allerdings angekündigt, dieses Modell Ende des Jahres noch einmal zu ändern – zugunsten der Seitenbetreiber. Für den Moment geht es Brave wohl noch darum, möglichst viele Benutzer anzulocken, mit der bevorstehenden Änderung will Brave dann wohl für die Seitenbetreiber attraktiver werden3.

Brave speichert deine Daten nur lokal
Die zweite große Stärke gegenüber den »großen« Browsern ist der Datenschutz. Wie bei klassischen Werbenetzwerken üblich, wertet auch Brave das Surfverhalten der Nutzer aus, um passgenaue Anzeigen liefern zu können. Laut dem Hersteller verlassen die persönlichen Daten des Benutzers aber zu keinem Zeitpunkt den lokalen Browser – auch nicht in die Cloud von Brave Software.

»Privacy-preserving ads« nennt der Hersteller das dahinterstehende Konzept. Die Nutzer werden zwar durchleuchtet, aber nur von ihrem lokalen Rechner aus. Wenn sie den Browserverlauf wieder löschen4, ist also das über sie gesammelte Wissen wieder verschwunden.

Das verhindert auch Situationen, wie sie bei Software der großen Konzerne immer wieder vorkommen: Diese erheben zugleich Daten in sensiblen Kategorien wie Krankheit, Sexualität oder politische Einstellung.

Das kann mitunter zu fragwürdigen Suchergebnissen und Werbeeinblendungen führen: Wer sich über die schwere Krankheit der Mutter informiert, könnte Bücher zum Thema Sterbehilfe angeboten bekommen. Wer etwas über »Queerness« liest, könnte fortan mit »besonderen« Tourismusangeboten versorgt werden. Und wer einmal auf der Website der AfD recherchiert, wird mit Modelabeln oder Pressepublikationen aus der rechten Ecke in Verbindung gebracht. Keine schöne Erfahrung.

Reicht das für den Angriff auf Google?
Hat Brave nun das Zeug dazu, Chrome gefährlich zu werden?

Brave wirkt auch nach fast 4 Jahren Entwicklungszeit noch unfertig. Der Browser ist schnell, doch der Komfort, den Nutzer von Chrome oder Firefox gewöhnt sind, fehlt: Es gibt nur wenige Plugins, grundlegende Funktionen wie ein Button, mit dem sich Seiten spontan als Lesezeichen hinzuzufügen lassen, werden erst nach und nach hinzugefügt5. Und das ein oder andere Banner huscht noch immer unter dem Radar hindurch und durchbricht die weiße Stille beim Surfen.

Für Technikfreunde, denen Datenschutz wichtig ist und die die Übermacht von Google und Co. als Bedrohung wahrnehmen, ist Brave definitiv eine Alternative. Um Chrome und Firefox ernsthaft Konkurrenz zu machen, muss der Browser allerdings noch ein paar Schippen drauflegen bei der Benutzerfreundlichkeit.

—-
1 – Mozilla ist bekannt für seinen Browser »Firefox« und das E-Mail-Programm »Thunderbird«. Die Open-Source-Software »Firefox« hatte vor 10 Jahren noch einen Marktanteil von rund 1/3, hat inzwischen aber viel auf Google Chrome verloren und wird heute noch von etwa jedem zehnten Nutzer zum Surfen genutzt.

2 – Die sogenannten BAT-Tokens werden im Browser-eigenen Wallet hinterlegt, einer Art digitalem Geldbeutel. Hier kann der User auch Kryptowährungen (Bitcoin, Ethereum, BAT-Tokens, Litecoin) einzahlen. Über eine »Auto Pay«-Funktion lässt sich ein fester Betrag festlegen, der monatlich an die Publisher überweisen wird. Auch Extra-»Trinkgelder« für die eigenen Lieblingswebsites sind möglich.

3 – Laut Brave Software nehmen derzeit über 28.000 verifizierte Seitenbetreiber am »Brave Ads Certified Vendor Program« von Brave teil, darunter auch prominente Vertreter wie die britische Tageszeitung »The Guardian« oder die amerikanischen Tageszeitungen »Washington Post« und »LA Times«.

4 – Ein weiterer Vorteil: Brave Software verspricht Seitenbetreibern außerdem Konformität mit der e-Privacy-Verordnung der EU, die 2020 verabschiedet werden soll. Mit der Verordnung soll der Datenerhebung mittels Cookies noch deutlichere Grenzen gesetzt werden.

5 – Die Lesezeichen-Schnell-Funktion etwa fehlte noch zu Beginn der Recherche für diesen Text, stand nach einem Update aber plötzlich zur Verfügung.

Link

Das große Aufrüsten

Bild: DAI Heidelberg

Beim International Science Festival „Geist Heidelberg“ referierten die Technikpublizisten Constanze Kurz und Frank Rieger über neue Sicherheitsbedrohungen aus dem Netz.

Mit dem Begriff „Cyberwar“ verbinden die meisten von uns eher fiktionale Szenarien. Wie abhängig wir von der digitalen Infrastruktur inzwischen tatsächlich geworden sind (und wie verwundbar sie uns macht), das rufen wir uns im Alltag eher selten ins Gedächtnis. In den Medien erleben wir den Krieg im Netz meist als zwischenstaatliches Szenario. Da sind die großen Aufmacher wie der NSA-Skandal (2013), der Bundestagshack (2015) oder auch die WannaCry-Angriffe (2017), hinter denen nordkoreanische Interessen stehen sollen.

Auch Frank Rieger bezeichnete das Thema Cybersicherheit als eine „eher dunkle Stelle im Denken“. Dass diese Bedrohung sehr real ist, daran ließen die beiden Informatik-Experten an diesem Abend aber keinen Zweifel. Es gebe inzwischen ein großes Bedürfnis auch der deutschen Sicherheitsbehörden wie Verfassungsschutz, Bundeskriminalamt oder auch der Zentralen Stelle für Informationstechnik im Sicherheitsbereich (ZITiS) im Konzert der Cybermächte „endlich mitmischen“ zu wollen, so Rieger. Die Cybermächte, das seien die sog. „Five Eyes“ (USA, Großbritannien, Kanada, Australien, Neuseeland) und natürlich China und Russland. Aber auch kleinere Länder wie Nordkorea, der Iran oder Israel seinen sehr aktiv, so die Autoren des Buchs „Cyberwar – Die Gefahr aus dem Netz: Wer uns bedroht und wie wir uns wehren können“.

Constanze Kurz attestierte der Hacker-„Branche“ eine inzwischen „hohe Professionalisierung“, die den letzten Jahren deutlich gestiegen sei. Es habe sich ein regelrechter Markt für IT-Überwachungs- und Intrusionsdienstleistungen gebildet, z. B. in Form der in Mailand gegründeten Firma Hacking Team, für deren Produkte sich auch das BKA interessiert habe. Die Preise für das Kaufen solcher „Werkzeuge“, die sicheren Zugriff auf zentrale Infrastrukturen gewährleisteten, hätten sich den letzten Jahren „verzehnfacht“, so Kurz. In Saudi Arabien habe man beispielsweise Schadsoftware in Industriesteuerungscomputern zur Regelung des Drucks und der Temperatur von Erdölanlagen gefunden. Da stelle sich natürlich die Frage „Wem nutzt das?“. Die genaue und direkte Zuordnung der Verursacher im Netz sei sehr schwierig.

In diesem Wettbewerb der Cyberwaffen versuchten Sicherheitsbehörden wie die CIA auch zunehmend eigene Strukturen wie spezielle Venture Capital-Fonds zur Gründung eigener Firmen aufzubauen, um unabhängiger vom Markt zu werden. Das alles seien „keine Geheimwissenschaften“, so die Informatikerin, die Preislisten seien öffentlich einsehbar. Um ein langfristiges wechseleitiges Aufrüsten zwischen den Staaten zu verhinden, plädierten Rieger und Kurz im Verlauf des Abends mehrfach für eine defensive Strategie der zwischenstaatlichen Verträge.

Der neue „rechtsfreie Raum“ der Cyber-Aufrüstung sei nicht zu tolerieren, so Kurz in einem leidenschaftlichen Plädoyer. Es könne nicht sein, „dass wir uns daran gewöhnt haben, dass die Geheimdienste machen was sie wollen“. Das Thema müsse verstärkt auf die Agenda der politischen Parteien gesetzt werden, z. B. in Form einer Enquete-Kommission des Deutschen Bundestags.

Constanze Kurze beklagte auch eine „fehlende Ethik“ im Ingenieursgewerbe für Software. Auch „Microsoft-Monokulturen“ beförderten die Sicherheitsanfälligkeit. Daran anknüpfend forderte Frank Rieger ein Label für die Garantie von Sicherheitsupdates der Hersteller, so „wie ein Etikett bei Waschmaschinen für den Energieverbrauch“.

Was jeder Einzelne von uns den gegen diese neue Strukturen unternehmen könne?, fragte ein Zuhörer. Constanze Kurz empfahl den Ratgeber „Eine kurze Anleitung zur digitalen Selbstverteidigung“ der Digitalen Gesellschaft Schweiz. Denn der Cyberkrieg beginnt (auch) auf jedem einzelnen Rechner – ganz real.

Wenn die Gedanken nicht mehr frei sind

Bild: DAI Heidelberg

Miriam Meckel sprach auf dem International Science Festival „Geist Heidelberg“ über die schöne neue Welt des „Brainhacking“.

Sind wir eines Tages vielleicht nicht mehr Herr über die Gedanken in unserem Kopf? Dieser zentralen Frage widmete sich die Professorin und Herausgeberin der Wirtschaftswoche Miriam Meckel an einem der symbolträchtigsten Orte für das freie Denken in Heidelberg – der Alten Aula.

Das Internet gilt inzwischen als das technische Rückgrat fast aller Lebensbereiche. Warum also nicht auch das Gehirn daran anschließen? Aus Sicht der Technologie-Historie spräche jedenfalls einiges dafür, dass dies eines Tages passieren werde, so die Professorin. Vielleicht seien wir sogar gezwungen dazu, um mit den künstlich intelligenten Maschinen mithalten zu können. Es gäbe immer mehr Maschinen, die zunehmend Domänen eroberten, die bisher ausschließlich dem Menschen vorbehalten waren. Anders gesagt: Wenn die Software schöner dichtet als der Mensch, was macht uns dann noch aus?

Gedanken „lesen“, Gedanken „schreiben“ und die „Vernetzung“ von Gehirnen, all das fände bereits statt, so Meckel. Probanden von „BrainGate“, einem Projekt zur Erforschung von Gehirn-Computer-Schnittstellen, die am Locked-in-Syndrom (einer fast vollständigen Lähmung des Körpers) leiden, hätten gelernt, per Gedanken eine Roboter-Protese zu steuern – mit überwältigender emotionaler Resonanz über das Ergebnis. „Ich habe mich gefühlt wie der Mensch, der ich einst gewesen bin“, zitierte Meckel eine Probandin.

Auch das Schreiben von Text mit der reinen Kraft der Gedanken sei bereits möglich. Facebook entwickle ein Gerät, mit dem sich 100 Wörter pro Minute allein durch Gedankenkraft diktieren ließen. „Das ist schneller als mancher Mensch denkt“, so Meckel.

Doch an einer solchen neuen Schnittstelle lauern für sie auch die größten Gefahren. Sind alle Worte, die am Sprachzentrum ankommen, dann auch für die Öffentlichkeit freigegeben? Bzw. für Facebook? Zuhause „Briefe vor sich hinzudenken“ sei eine durchaus bequeme und verlockende Lifestyle-Option, doch entstünde dadurch nicht z. B. auch ein neuer Markt im Gehirn? Wollen wir Facebook wirklich bis in die Tiefen unserer Gedankenwelt vordringen lassen?

Meckel warnte vor dem „Bild der Maschine“, das über das, was den Menschen eigentlich ausmache, „das Nicht-Binäre“, gestülpt werde. Medizinische Fortschritte seien hingegen sorgfältig abzuwägen, z. B. im Bereich der Optogenetik, wo sich bei Mäusen durch die gezielte Manipulation von Hirnarealen per Laser Depressionen lindern ließen. Und auch ein „organisches Internet“ gäbe es schon. Zwei Ratten hätten in Experimenten bereits „Gedanken“ über das Internet ausgetauscht. Das Lernmuster zum Lösen einer einfachen Konditionierungsaufgabe wurde per Internet von einem Rattenhirn auf das andere Rattenhirn übertragen.

Mit Experimenten wie diesen sieht Meckel auch den Menschen eine „neue existenzielle Dimension“ ansteuern, nämlich die Möglichkeit eines „kollektiven Bewusstseins“ und eines „gemeinsamen Denkens“. Die Fragen, die damit entstünden: Was bedeutet in einem solche Prozess Identität? Kann ich mich dann überhaupt noch selbst erkennen?

Die Idee des Individuums der Aufklärung sei in Gefahr, so Meckel. Ein „Kampf um die Ressource des Denkens“ könne entstehen, der Geist – zur „Ware“ degradiert – zur „Wettbewerbszone“ verkommen. Damit wären wir im Zeitalter des „Neurokapitalismus“ angekommen.

Es läge an uns, zu entscheiden, was wirklich passieren soll, so Meckel. Eine „Reduktion von Komplexität“ durch eine neue Technik sei nicht wünschenswert.

Und auch wenn diese Entwicklung für uns im Alltag noch weit weg sei, so gelte es jetzt die richtigen Entscheidungen zu treffen. Miriam Meckels Plädoyer: „Denken Sie nach! Sie haben die Freiheit dies zu tun.“

Der viel zu rasante Fortschritt?

Bild: DAI Heidelberg

Im Rahmen des International Science Festival „Geist Heidelberg“ diskutierte Wirtschaftsjournalist Thomas Schulz mit Heidelberger Vertretern aus Wirtschaft und Medizin über die neue digitale Datenmedizin aus dem Silicon Valley.

„Was ist das nächste große Ding?“. Mit dieser Frage eröffnete der Spiegel-Journalist und langjährige Silicon Valley-Korrespondent Thomas Schulz (neues Buch: „Zukunftsmedizin“) seinen Vortrag über die neue digitale Medizin aus Kalifornien. Eine Frage, die dort offenbar täglich gestellt wird. Und um das herauszufinden, gibt es wohl nur einen Weg: „Follow the money“, so Schulz und ließ die Zahlen purzeln: 1 Milliarde US-Dollar Startkapital für „Grail“, einem Biotechnologie-Startup, das eine Krebs-Früherkennung per Bluttest entwickelt, 500 Millionen US-Dollar für die Erzeugung von menschlichen Organen aus dem 3D-Drucker, 600 Millionen US-Dollar für den Chan Zuckerberg Biohub, einem Gemeinschaftskonsortium der Universitäten Berkeley, UCSF und Stanford, das an der Entdeckung neuer Zelltypen arbeitet, und nochmal 1 Milliarde US-Dollar für Calico von Google, einem Biotechnologie-Unternehmen, das den menschlichen Alterungsprozess aufhalten will.

„Wenn Sie ein kluger Kopf sind und mit einer guten Idee zur Sparkasse gehen, dann bekommen sie dort vielleicht 500.000 Euro. Im Silicon Valley unter Umständen gleich 50 Millionen Dollar. Wo würden Sie dann hingehen?“, wies Thomas Schulz auf die extremen Unterschiede der Investment-Kultur in Deutschland und dem Silicon Valley hin, einer ganz besonderen Mischung aus „Utopismus und Kapitalismus“.

In seinem einführenden Vortrag betonte er vor allem die Schnelligkeit der Entwicklungen, die dort gerade stattfinden. Die Genschere CRISPR/Cas habe nach fünf Jahren Entwicklungszeit ihren ersten Einsatz am Menschen erlebt. Früher hätte so etwas mind. 30 Jahre gedauert, so Schulz. Die Entwicklung des Fortschritts verlaufe exponentiell, es gelte das Prinzip der „Konvergenz“, also das Zusammenfließen von Erkenntnissen aus unterschiedlichen Wissenschaftsbereichen. Dabei mache die Rasanz der Forschungen der letzten Jahre auch ihn nachdenklich. Selbst gestandene Größen der Tech-Szene würden mitunter einwerfen, man verstehe gar nicht mehr, was da eigentlich gerade passiert, verwies Schulz auf ein Gespräch mit Larry Page, dem Geschäftsführer von Google.

„Es ist der Mensch und nicht die Maschine, die uns rettet!“, gab es einen lautstark aus dem Publikum vorgetragenen Einwand. Thomas Schulz bat um Geduld, verwies auf die nachfolgende Diskussionsrunde und lies dann Beispiele folgen, wo die Maschine erwiesenermaßen besser sei als der Mensch, zum Beispiel beim Hautkrebs-Screening und dem Erkennen von krankhaften Strukturen im Allgemeinen. Brauchen wir also in Zukunft vielleicht gar keine Radiologen mehr?

An diesem Punkt traten Prof. Dr. med Jürgen Debus von der Radiologischen Universitätsklinik Heidelberg und Dr. Friedrich von Bohlen, Geschäftsführer von Molecular Health, einem Unternehmen für datengestützte Präzisionsmedizin, auf. „Das ist was dran“, konstatierte Jürgen Debus nüchtern. Die Frage sei aber: „Was mache ich daraus?“. Die Maschine könne vieles besser, sie sei in vielem sicherer, aber sie sei eben nicht intelligent. Eine Maschine finde statistische Korrelationen (Wahrscheinlichkeitszusammenhänge), aber die Kausalität (Beziehung zwischen Ursache und Wirkung), die müsse immer noch der Mensch herstellen. „Mehr Freiraum für Entscheidungen“, wie Thomas Schulz es formuliert, würden die Maschinen aber in jedem Fall liefern.

Friedrich von Bohlen sieht im Computing die nächste große Medizin-Revolution, die „völlige neue Dimensionen“ in der Medizin sichtbar mache, z. B. neue Muster von Mutationen in der Krebsdiagnostik, die sich dann doch mit Verlaufsdaten und Lifestyle-Daten koppeln ließen.

Jürgen Debus betonte die Notwendigkeit „den Patienten insgesamt zu modellieren“ und dazu seinen möglichst viele Daten unabdingbar. Der Wissensschatz der Medizin sei heute so groß, dass ihn kein Mensch mehr überblicken könne. Die Radiologen von heute seien dermaßen spezialisiert, dass für die Bestrahlung eines Hirntumors und die Bestrahlung eines Prostatatumors zwei unterschiedliche Experten notwendig seien, die auf ihrem jeweiligen Fachgebiet kaum miteinander kommunizieren könnten.

Doch der freie Umgang mit medizinischen Daten birgt auch viele Gefahren, allen voran beim Datenschutz. Die Debatte um die elektronische Gesundheitsakte in Deutschland ist dafür ein Musterbeispiel.

Friedrich von Bohlen hofft darauf, dass sich das Problem vielleicht anders lösen lasse, z. B. indem die Patienten ihre Daten in Zukunft selbst auf dem Handy mit sich herumtragen. Es gebe ja heute bereits USB-Sticks, „da spucken Sie drauf, und ein paar Sekunden später haben Sie ihren DNA-Fingerabdruck in der Hosentasche.“ Für Jugendliche sei das Smartphone eh schon der Mittelpunkt ihres Lebens. Jürgen Debus sah an diesem Punkt schon eine „Anmache 4.0“ aufziehen: „Homozygot mit blauen Augen, na, wie wäre es mit uns beiden?“, warf er mit einem Schmunzeln ein.

Das sehr ernste Problem dahinter nennt Thomas Schulz „Konsumenteneugenik“. Jürgen Debus betonte, dass man die Menschen darauf vorbereiten müsse, was es bedeute „wenn man sein Genom ins Internet stellt“. Neue Technologien dürften „nicht einfach freigeschaltet“ werden.

Die neuen Technologien seien „an sich nicht gefährlich“ sagte Friedrich von Bohlen, aber könnten sich nur wenige Menschen darunter auch etwas vorstellen. Grundsätzlich sei der technologische Fortschritt nicht aufzuhalten.

Auf die Frage, wie das Gesundheitssystem mit der neuen Datenmedizin umgehen solle, plädierte Friedrich von Bohlen für neue „Belohnungsstrukturen“, die vor allem „langfristig“ angelegt sein müssten. Es müssten Anreize geschaffen werden, die Daten frühzeitig ins System zu spielen. Patienten könnten dafür z. B. in Form von Kryptowährung ausgezahlt werden, sagte er. Vielleicht hätten wir später mal einen „technischen Arzt“ und einen „menschlichen Arzt“, die beide zum Wohl des Patienten zusammenarbeiteten.

Die Daten-Doktoren

Bild: DVA

In seinem neuen Buch „Zukunftsmedizin“ stellt Thomas Schulz die Vision des Silicon Valley für die Medizin von morgen vor, und dabei wird klar: Für die Tech-Entrepreneure ist Gesundheit in Zukunft vor allem eine Frage von Daten.

Die Informatik erobert die Medizin. So nüchtern ließe sich das Buch von Thomas Schulz zusammenfassen. Doch in der Sprache der Tech-Visionäre aus Kalifornien klingt die neue Ära der Computermedizin eher nach der Verwirklichung einer wilden Science-Fiction-Utopie als an schnöde Rechenleistungen. Das Silicon Valley, so möchte man fast sagen, träumt die Medizin neu, und dieser Traum erwächst aus der radikal neu gedachten systematischen Erhebung, Auswertung und Verknüpfung von Daten über den menschlichen Körper.

Es ist die Idee von einem Körper, der in seine kleinsten digitalen Einheiten aufgelöst wird und unter dieser Perspektive als frei programmierbares „Betriebssystem“ erscheint. Was sollte die DNA anderes sein als ein ausgeklügelter „Code“ für die Grundbausteine des Lebens? Und dienen nicht alle Körperfunktionen der Übertragung von Informationen wie auf einer (digitalen) Datenautobahn? Funktioniert die CRISPR/Cas-Methode nicht im Prinzip wie ein „Textverarbeitungsprogramm am Computer“ nach dem Befehl „Suchen und Ersetzen“?

Und auch wenn sich mit dem Ende des Humangenomprojekts 2003 der Traum von einem einfachen genetischen Determinismus nicht erfüllt hat, so war das Projekt doch der Anfang für eine neue systematische Vermessung des menschlichen Körpers. Heute stehen neben der DNA auch das Proteom (Gesamtheit aller Proteine des menschlichen Organismus) und das Mikrobiom (Gesamtheit aller Mikroorganismen im menschlichen Organismus) im Zentrum wichtiger Forschungen des Wissenschaftszweigs der „Systembiologie“, die mithilfe von Computermodellen den Körper als Ganzes zu erfassen versucht.

Für ihre Vision einer neuen digitalen Medizin gilt im Silicon Valley das Prinzip der „Konvergenz“, d. h. das Zusammenfließen von Erkenntnissen aus unterschiedlichen Wissenschaftsgebieten wie der Genetik, Biotechnologie, Medizin und Informatik zu neuen Ansätzen der Wissenserschließung und -aufbereitung. In diesen Tagen sollen das maschinelle Lernen und die künstliche Intelligenz endgültig das Zeitalter einer neuen Biomedizin einläuten, deren langfristige Erfolge z. B. so aussehen könnten: Abwehrzellen werden gentechnisch gezielt gegen Tumoren hochgerüstet, neue diagnostische Bildgebungsverfahren liefern Live-Einblicke in biologische Nanoprozesse und hochaufgelöste Bilder des Körpers fördern Zelltypen zu Tage, die bisher noch überhaupt nicht bekannt sind.

Hinter all diesen Bemühungen steht der Traum von einer personalisierten Medizin, also weg von Massentherapien und -therapeutika, die für den Patientenschnitt eine möglichst gute Wirksamkeit bei möglichst geringen Nebenwirkungen versprechen, hin zur fein auf das Individuum abgestimmten Präzisionsmedizin. Die Grundlage dafür: Daten, Daten und nochmals Daten.

Neu an der aktuellen Entwicklung ist auch, dass die geplante „Revolution“ der Medizin diesmal von Start-ups ausgeht, Biotechnologie-Startups, die damit ein Hochrisikogeschäft eingehen, da große Durchbrüche in der Medizin relativ selten sind. Bei einem möglichen Erfolg zur Behandlung von Krebs oder Alzheimer, Bereiche also, in denen die „konventionelle“ medizinische Forschung schon seit Jahrzehnten nur mühsam vorankommt, winken jedoch Milliardengewinne. Es ist eine riskante Wette, doch im Silicon Valley sehen sie die Zeit für einen datengetriebenen medizinischen Paradigmenwechsel jetzt gekommen. Und der Wettlauf ist in vollem Gange.

So will das Medizin-Unternehmen Moderna nicht eine einzige Therapie, sondern gleich Hunderte davon entwickeln. Das Unternehmen sieht sich als „Medizin-Plattform“ und vertritt den Anspruch, die gesamte Biologie des Körpers systematisch verstehen und medizinisch manipulieren zu wollen. Der Schlüssel dazu liegt für die Forscher in der mRNA des Körpers, die eine zentrale Rolle bei der in der DNA codierten Proteinbiosynthese spielt. Moderna entwickelt dabei „weder chemische Lösungen (d. h. Moleküle wie in der Pharmaindustrie) noch biologische Lösungen (wie etwa Antikörper oder rekombinante Proteine). Stattdessen wollen die Moderna-Forscher, wie in der IT üblich, eine Art Code, also Anweisungen schreiben, die die Zellen so programmieren sollen, Proteine herzustellen und Krankheiten zu bekämpfen. Damit wird der Körper zur eigenen Medikamentenfabrik“, schreibt Schulz.

Moderna ist nur ein Beispiel für die neue Art, Medizin zu denken. Was im ersten Moment faszinierend klingt, muss sich in langjährigen klinischen Studien erst noch bewähren. Doch es gibt bereits erste Erfolge – und die Milliarden der Wagniskapitalgeber fließen.

So arbeitet auch Google mit Verily an einer „Infrastruktur für die digitale Gesundheitswelt“, die den Menschen in seinem Innersten immer genauer vermessen will, z. B. mithilfe von minituarisierten Sensoren, die am Handgelenk getragen, in der Kontaktlinse verbaut oder auch in der Badewanne installiert sind. Alle Daten sollen verknüpft und spezifischen Krankheitsbildern zugeordnet werden. „Proaktive Medizin“ heißt das Zauberwort, mit der Krankheiten im Alltag erkannt werden sollen, bevor Sie ausbrechen. Die Daten der menschlichen Biologie sind dazu der Schlüssel. Auf einer (Cloud-)Plattform sollen sie zusammengeführt werden, KI und maschinelles Lernen besorgen die Analyse.

Doch bei aller Faszination über die neuen Möglichkeiten stellt Thomas Schulz auch die schwierigen Fragen. Was kann die digitale Medizin wirklich leisten und wer kann sie sich überhaupt leisten? Was fängt der Mensch mit seiner neu gewonnenen Macht an? Und wer profitiert am Ende wirklich davon? Die ethischen Fragestellungen sind gewaltig, sollte der Mensch einmal in der Lage sein, das eigene Erbgut zielsicher zu manipulieren oder sogar zu steuern.

Thomas Schulz liefert in seinem Buch unzählige Beispiele, wie die Medizin im Silicon Valley gerade neu erfunden wird. Das alles könnte dazu führen, dass wir vielleicht einmal 200 Jahre alt werden. Im Valley träumen sie sogar von der Unsterblichkeit. Und so wirkt Vieles im Buch von Thomas Schulz noch wie eine irreal anmutende Zukunftsvision, auch ein bisschen wie eine ganz eigene „Ideologie“ von Medizin – mit entsprechendem Beigeschmack. Gleichzeitig scheint der Traum von einer neuen technologischen Ermächtigung über den Körper wie ein greifbares Heilsversprechen, dessen Verwirklichung man keine Sekunde aufschieben will. Im Valley haben Sie den Mut (und vor allem das Geld) das zu tun. In Deutschland warten wir derweil seit knapp 15 Jahren auf die Umsetzung der elektronischen Gesundheitsakte.

Aufgrund der gewaltigen technologischen Veränderungen kann das Buch des Spiegel-Reporters, der die Entwicklung der Tech-Branche im Silicon Valley schon seit vielen Jahren journalistisch begleitet, nichts anderes sein als eine Diskussionsgrundlage, und dazu taugt es sehr gut. Dem Buch gelingt es, allgemeinverständlich dem Leser eine Idee davon mitzugeben, wie grundlegend anders Medizin in der Zukunft aussehen könnte.

Auch fordert Thomas Schulz Deutschland dazu auf, den schwierigen Weg einer digitalen Medizin unbedingt mitzugehen. Eine mögliche Strategie, dem unberechenbaren Wandel Herr zu werden zu, sieht er in einem Zitat aus einer Rede von Richard von Weizsäcker vom 24. Mai 1989 zum 40. Jahrestag des Grundgesetzes: „Wichtig ist eine ungehinderte Information und eine breite Bewusstseinsbildung. Möglichste viele sollten möglichst viel wissen.“

Thomas Schulz hat mit seinem Buch einen ersten wichtigen Beitrag dazu geleistet.

Gesprächstherapie für die Hosentasche

Bild: Woebot Labs Inc.

Der Chatbot Woebot will Menschen bei der Bewältigung emotionaler Krisen im Alltag helfen, rund um die Uhr, 100 % anonym. Das klingt verlockend, doch was kann ein Robo-Psychiater wirklich leisten?

Therapie bei einem Chatbot? Egal, los geht’s. Und tatsächlich: Schon nach ein paar Sätzen tendiere ich dazu, Woebot als echten Gesprächspartner wahrzunehmen, auch wenn sich das Programm bei der Einführung eindeutig als Roboter zu erkennen gibt („This might surprise you, but … I am a robot. It’s true. As smart as I may seem, I am not really understanding what you need.“) und auf die gängigen Notfallnummern für den Ernstfall verweist.

Laut einer Studie der WHO vom Februar 2017 sind weltweit rund 322 Millionen Menschen von einer depressiven Störung betroffen, das entspricht einem Anteil von 4,4 % der Weltbevölkerung. Insbesondere ältere Menschen, schwangere Frauen, Frauen nach der Geburt und Jugendliche seien betroffen, heißt es in der Studie. Für Deutschland schätzt die WHO die Zahl der Menschen mit Depressionen auf 4,1 Milli­onen, das sind 5,2 Prozent der Bevölkerung. 4,6 Millionen Menschen lebten mit Angststörun­gen.

Woebot ist in erster Linie für junge Erwachsene zwischen 18-28 Jahren konzipiert, die Entwickler möchten sich langfristig aber auch für andere Zielgruppen öffnen, wie es auf der Unternehmens-Website heißt.

Und für einen Roboter „kümmert“ sich Woebot schon nicht schlecht, das gelingt mit einfachen Sätzen wie: „I’m going to check in with you daily“. Und tatsächlich meldet sich Woebot am nächsten Tag wieder, um sich nach meinem persönlichen Befinden zu erkundigen und Zustände der Nervosität, Angst, Sorge und Depression sowie ihre Intensität und Dauer abzufragen. Meine Befindlichkeit kann ich in freien Worten eingegeben, die der Chatbot anschließend auswertet.

Die Reaktionen des Chatbots fallen einfühlsam, aufmunternd und unterstützend aus, manchmal auch etwas beliebig. Die konkreten Ratschläge sind dennoch strukturiert aufgebaut und bedienen sich den Methoden einer klassischen kognitiven Verhaltenstherapie, mit der falsche oder irrationale Sichtweisen auf emotional belastende Erlebnisse korrigiert werden sollen.

In einem einführenden YouTube-Video bekomme ich gezeigt, welche Bedeutung die eigene Wortwahl für die Bewertung von Ereignissen hat. Die App versucht, mich für übertriebene Polarisierungen (Alles-oder-Nichts-Aussagen) oder Muss-Formulierungen in den Bewertungen zu sensibilisieren („Niemand liebt mich“, „Ich habe alles verloren“, „Ich hätte das nicht sagen dürfen“). Auch „hellseherische“ Annahmen darüber, was andere Menschen womöglich über mich denken, werden hinterfragt.

Zudem stellt die App mittels einer „Toolbox“ ein festes Set an abrufbaren Hilfestellungen bereit: ein „Dankbarkeits-Tagebuch“ (Gratitude Journal), eine Methodik zum strukturierten Erreichen von Zielen (Goal Setting) sowie eine Soforthilfe zum Aufarbeiten von Ängsten (Anxiety Buster), die von mir konkret benannt und durch Umformulierung neu bewertet werden müssen.

Ansonsten erfolgt die Unterhaltung mit Woebot zum Großteil in vorgegebenen Bahnen. Um die Kommunikation möglich effektiv zu gestalten, sind vielen Antworten schon vorformuliert („Ok“, „Sounds good“, „Let’s go“), und ich bestätige nur. So entsteht ein Gefühl des Geführtwerdens, was die Illusion aufrechterhält, ich hätte es mit einem echten Therapeuten zu tun. Auch sonst bemüht sich Woebot darum, mit saloppen Formulierungen („Cool“, „Yay“, „Hey“) gute Laune zu verbreiten.

Für die maschinelle Sprachverarbeitung, d. h. die Interpretation und Analyse der freien Benutzereingaben, setzen die Entwickler auf das maschinelle Lernen mit Techniken des Natural Language Processing (NLP), mit denen der Chatbot im Verlauf der Unterhaltung sein Gegenüber immer besser kennenlernt.

Die Unternehmensgründerin Alison Darcy macht in einem Interview mit wired.com jedoch klare Einschränkungen im Hinblick auf die psychoanalytischen Fähigkeiten des Programms: „Es handelt sich nicht um eine KI, von der Du durch Aufspüren einer Art magischen Prinzips Dinge über Dich erfährst, von denen du bisher nichts geahnt hast“. Ihre KI will praktisches Werkzeug sein, kein Instrument zur tiefenpsychologischen Sondierung.

Die Bundespsychotherapeutenkammer (BPtK) ist der Idee einer solchen virtuellen Therapie nicht grundsätzlich abgeneigt, stellt in einem Positionspapier zum Thema „Internet in der Psychotherapie“ aber klare Bedingungen. So könne das Internet die psychotherapeutische Behandlung ergänzen und die Versorgung psychisch kranker Menschen verbessern, jedoch nicht ersetzen. Gegen eine Verzahnung von Psychotherapie und Internetprogrammen sei dem Prinzip nach nichts einzuwenden, z. B. zur Protokollierung von Aktivitäten außerhalb der Praxis und der anschließenden gemeinsamen Auswertung der Daten zusammen mit dem Therapeuten in der Sitzung.

In einer begleitenden Studie konnte jedenfalls eine signifikante Reduzierung von Ängsten und Depressionen bei der Zielgruppe im Vergleich zu einer Kontrollgruppe nachgewiesen werden, die sich lediglich herkömmlichen Informationsmaterials des National Institute for Mental Health zum Thema Depression bediente.

Einen direkten Vergleich mit der Arbeit professioneller Psychotherapeuten zieht die Studie nicht.

Wenn das Haus auf Omi aufpasst

Bild: CITEC

Viele ältere Menschen möchten ihre letzten Lebensjahre gerne in den eigenen vier Wänden verbringen. Doch körperliche und/oder geistige Gebrechen schränken die Selbstständigkeit oft ein, was am Ende dann doch zum ungewollten Umzug ins Pflegeheim führt. Können moderne technische Assistenzsysteme das auffangen? Und wie sieht dann das Wohnkonzept der Zukunft für ältere Menschen aus?

Wenn bei Renate Midau, 73, morgens der Wecker klingelt, bleibt sie meist noch ein paar Minuten länger liegen. Erst nachdem die Jalousien automatisch nach oben gefahren sind und das erste Tageslicht ins Zimmer dringt, bewegt sie sich langsam hinüber zum Bettrand und setzt sich auf. Renate Midau wohnt in einem einfachen aber modernen Mehrfamilienhaus am Kölner Stadtrand. Sie lebt gern hier, auch weil sie hier aufgewachsen ist und noch einige Freunde und Bekannte in der Umgebung hat. Ihre Kinder sind beruflich und familiär stark eingespannt und kommen – wie das halt so ist – eher selten zu Besuch.

Ein bisschen schmerzt ihr noch der Steiß von letzter Woche. Da wurde ihr mit einem Mal schummrig und plötzlich lag sie flach auf dem Boden. Zum Aufstehen hat die Kraft nicht mehr gereicht, aber die in der Decke dezent verbauten Kameras haben den Sturz erkannt und sofort die Notrufzentrale alarmiert. Über einen kleinen Wandlautsprecher im Flur hat man mir ihr gesprochen, hat sie beruhigt. Ein halbe Stunde später war jemand da. Nach einer kurzen ärztlichen Versorgung und einem Gespräch war das Schlimmste überstanden.

Renate Midau findet, dass sie im Alltag eigentlich ganz gut alleine klarkommt, auch weil ihre Kinder ein paar kluge Helferlein für sie in der Wohnung installiert haben. Das geht schon morgens los. Nach der Körperpflege meldet sich in der Regel ihr intelligenter Tablettenspender mit einem kurzen Piepen zu Wort. Der ambulante Pflegedienst, der sie zwei Mal die Woche besucht, richtet ihr das Gerät regelmäßig ein und füllt die Medikamente nach. So bekommt sie immer nur die Tabletten ausgegeben, die sie zur jeweiligen Tageszeit auch einnehmen muss. Früher war das manchmal ein ganz schönes Durcheinander und Gekruschtel oder sie hat die Tabletten einfach ganz vergessen. Der Arzt hat dann immer mit ihr geschimpft, kann ja auch schnell mal ins Auge gehen so was. Ihre Kinder haben außerdem bemerkt, dass sie nach dem Kochen manchmal den Herd nicht ausschaltet, und eine Wärmesensorik installieren lassen; die springt bei Überhitzung jetzt ein und gibt ihr und den Kindern ein gutes Gefühl.

Seit Kurzem kann sie außerdem noch auf eine ganz besondere Hilfe zählen. Tommi ist ein virtueller Assistent auf dem Fernsehbildschirm, mit dem sie in natürlicher Sprache kommunizieren kann und der ihre Termine regelt, ihr die Zeitung vorliest oder sie an ihren Hausschlüssel erinnert. Sie mag Tommi gern, weil er ihre Bedürfnisse immer besser versteht und viele Dinge inzwischen genau so macht, wie sie das gerne hätte, ohne sich anderweitig in den Vordergrund zu drängen. Tommi plant auch ihr wöchentliches interaktives Fitness-Programm ein, das sie von ihrem Fernsehsessel aus oder auch im Stehen vor dem Fernseher absolvieren kann – je nach Tagesform. Ein Armband an ihrem Handgelenk erfasst ihre Körperbewegungen. So kontrolliert das System, dass sie die Übungen richtig ausführt. Gerade im Winter, wenn sie nicht immer vor die Tür will und ihre Gelenke oft schmerzen, ist das genau das Richtige für sie. Das System überträgt ihre Vitaldaten auch gleich noch an den Hausarzt, damit der über ihren Gesundheitszustand informiert ist. Sie geht trotzdem noch regelmäßig zum Arzt, aber durch das System fallen viele Routineuntersuchungen weg.

Reality Check
Renate Midau und vor allem die Wohnung aus unserem Beispiel gibt es im echten Leben (noch) gar nicht. Aber so oder so ähnlich könnte das Wohnen im Alter der Zukunft aussehen. Zumindest wenn es nach den derzeitigen Vordenkern für technikgestütztes Wohnen geht. Die Idee der „Alltagsunterstützenden Assistenzlösungen (AAL)“, die sich nahtlos in den Alltag der Menschen integrieren sollen, existiert schon seit den 90er Jahren. Derzeit erlebt das Konzept eine kleine Renaissance, denn Fachleute suchen nach Lösungen für die Folgen des demografischen Wandels. 2,6 Millionen Menschen waren im Dezember 2013 laut Angaben des Statistischen Bundesamts in Deutschland auf Pflege angewiesen. In den kommenden anderthalb Jahrzehnten soll diese Zahl um eine knappe weitere Million auf rund 3,6 Millionen Menschen steigen. Während die Zahl der Pflegebedürftigen zunimmt, ist die Zahl der Menschen, die derzeitig in der Pflege tätig sind, weiter rückläufig. Der „Themenreport Pflege 2030“ der Bertelsmann-Stiftung warnt vor einer gravierenden Versorgungslücke, und das obwohl bereits 71 Prozent der pflegebedürftigen Personen Ende 2013 in den eigenen Wänden umsorgt wurden. Der Stellenwert der ambulanten häuslichen Pflege wird damit weiter zunehmen. Neben Angehörigen und ambulanten Diensten soll jetzt auch die Technik ihren Beitrag leisten.

Forschungsvisionen
Das Forschungsprojekt „KogniHome – die mitdenkende Wohnung“ des Exzellenzclusters für kognitive Interaktionstechnologie (CITEC) an der Universität Bielefeld gehört zu den derzeit modernsten Testszenarien für umgebungsgestütztes Wohnen in Deutschland. Die Vision des Projekts um den Neuroinformatiker Prof. Dr. Helge Ritter ist eine Wohnung, die durch das Zusammenspiel einer Vielzahl komplexer technischer Assistenzsysteme immer mehr über die Eigenheiten des Bewohners lernt und in der Folge somit besser auf seine Bedürfnisse eingehen kann – dem erdachten Prinzip nach ein Leben lang. So soll eine intelligente Küche Hilfe beim Kochen leisten, der Eingangsbereich mit interaktivem Spiegel Tipps für die passende Kleiderwahl in Abhängigkeit von der Witterung bereithalten und ein persönlicher Trainer in Form eines virtuellen Avatars zur sportlichen Betätigung im eigens konzipierten Trainingssessel animieren. Die Initiatoren des Projekts legen dabei insbesondere auf die Vernetzung der verschiedenen Systeme wert, die sich untereinander austauschen und so immer passgenauere Vorschläge unterbreiten können. So kann die intelligente Küche das in der Online-Tageszeitung bei der morgendliche Lektüre markierte Rezepte für die Mittagszubereitung vorschlagen, ggf. eine Einkaufsliste erstellen und sie zur Erinnerung an den Spiegel weitergeben.

Der sog. „Rezeptspurhalteassistent“ – ein Begriff in Anlehnung an den Fahrspurassistenten in der Automobilbranche – soll durch intelligentes Eingreifen dafür sorgen, dass Rezepte auch sicher gelingen. Hauptaugenmerk der Forscher liegt dabei vor allem auf einer möglichst intuitiven Bedienung, auch für technisch Ungeübte: „Wir versuchen langfristig auf komplizierte Schnittstellen zu verzichten, wie z. B. beim Smartphone oder dem Tablet, wo man sich erst durch diverse Menüs klicken muss, um eine Einstellung zu finden“, sagt Projektleiter Thorsten Jungeblut. Stattdessen sollen Sprache und Gestik zum Einsatz kommen. Jedoch müssen für eine umfassende Vernetzung jede Menge (persönliche) Daten erhoben werden. Was geschieht mit ihnen? Thorsten Jungeblut grenzt sich beim Thema Datenschutz klar von den Geschäftsmodellen großer IT-Konzerne wie Google oder Apple ab, die mit gesammelten Daten Geld verdienen möchten: „Wir wollen weg vom Gedanken des Cloud Computing. Die Daten sollen in der Wohnung verbleiben.“ Doch nicht nur Fragen der Technik müssen am CITEC gelöst werden, sondern die direkte Interaktion von Mensch und Technik wirft auch jede Menge ethische Probleme auf: Darf z. B. die intelligente Tür, die an den vergessenen Haustürschlüssel erinnert, dem dementen Bewohner das Verlassen der Wohnung verbieten, weil er sich dadurch einer gesundheitlichen Gefahr aussetzt? Thorsten Jungeblut sagt: „Nein.“ Dabei betont er, dass er und seine Kollegen diese Fragen am Institut kontrovers diskutieren würden. Das Ergebnis seien oftmals ausgeklügelte Zwischenlösungen, die im Fall einer intelligenten Tür z. B. so aussieht, dass die Tür erst einen Angehörigen benachrichtigt, der dann per Telefon mit dem Bewohner spricht und ihm ggf. von einem Ausgang abrät.

Unterstützung vs. Bevormundung
Für Jutta Kaas, 77, ist das alles nichts mehr, wie sie später freimütig zugeben wird. Trotzdem steht sie – als freiwillige Probandin ganz im Dienst der Wissenschaft – gerade in der intelligenten Küche des „KogniHome“-Forschungsprojekts und lauscht den Anweisungen der blechernen Computerstimme. Als Nächstes soll sie 100 Gramm Milchreis in die metallene Ofenform geben. Eine virtuelle Markierung in Form eines grünen Kreises auf der Herdplatte signalisiert ihr, wo sie die Form abstellen soll. Auf einem Bildschirm, der die gesamte Herdrückseite bildet, wird ihr dynamisch die Menge angezeigt, die sie bereits hinzugegeben hat. Der rote Balken steigt langsam nach oben und wird beim Erreichen der Ziel-Füllstandsmarke grün. Doch Jutta Kaas passt einen Moment nicht auf und gibt etwas zu viel Reis hinein. Während sie das Ergebnis korrigieren möchte, ist das System bereits zum nächsten Schritt – dem Einfüllen der Milch – übergegangen und bringt Jutta Kaas damit aus dem Konzept. „Kein Problem“, sagt der Projektleiter und drückt zuerst auf den Notausknopf und tippt dann auf das bereitliegende Tablet, um den vorherigen Rezeptschritt noch einmal aufzurufen. Dann halt nochmal von vorn. Beim nächsten Versuch klappt alles und nach Zugabe der letzten Zutat fährt auch der Ofen vollautomatisch auf die im digitalen Rezept hinterlegte Temperatur hoch und stellt die Zeituhr richtig ein. Doch nicht immer sind die Kameras und Sensoren auf alle Eventualitäten in der näheren Umgebung vorbereitet oder interpretieren Informationen falsch. Mal stört das einfallende Sonnenlicht die Sensorik, ein andermal steht Frau Kaas kurz davor, sich versehentlich auf der Herdplatte abzustützen. Wie soll das System jetzt reagieren? Eine Vielzahl solcher „unsicherer“ Situationen sind denkbar. Ein intelligentes und vor allem sicheres System muss damit umgehen können. Vom schnörkellosen Zugang von Jutta Kaas zur Technik können die Forscher vom CITEC jedenfalls sehr viel lernen. Wie die intelligente Küche in Zukunft tatsächlich aussehen könnte, ist ungewiss: „Die Idee ist, dass vielleicht in fünf Jahren, vielleicht nicht das System als Ganzes, aber Einzelaspekte davon in einer Küche integriert sein werden“, sagt Christof Elbrechter, im Rahmen von „KogniHome“ zuständig für die digitale Objekterkennung. So weit die Idee.

Der lange Weg zum Verbraucher
Doch der Technologietransfer gestaltet sich offenbar nach wie vor schwierig, das zeigen auch die aktuellen Marktzahlen. Die Umsätze der Hersteller von AAL-Lösungen sind überschaubar. Laut dem Statistikportal Statista wurden 2016 im Segment AAL etwa 29 Mio. Euro umgesetzt. Prognostiziert wird ein Marktvolumen in Höhe von 365 Mio. Euro bis zum Jahr 2021. Damit würde bis 2021 in ca. 1,2 Millionen Haushalten AAL-Technologie zum Einsatz kommen, das wären gerade mal drei Prozent aller Haushalte in Deutschland. Eine Markteinschätzung gilt aber als schwierig, auch weil sich die Produkte und Dienstleistungen erst nach und nach entwickeln. Diesen Eindruck bestätigt auch René Stephan vom Forschungszentrum Informatik (FZI) in Karlsruhe, das auf den Praxistransfer von Informatiktechnologien spezialisiert ist. Zwar würden bereits viele AAL-Produkte über das Internet vertrieben, aber viele davon seien einfach zu komplex, sodass der Vertrieb nur bedingt funktioniere. Ein vom Kunden oftmals gewünschtes „Fertigsystem“ gebe es noch nicht, auch weil die möglichen Herausforderungen und Szenarien zu individuell seien. Das Webportal „Wegweiser Alter und Technik“ des FZI Karlsruhe liefert Interessenten einen ersten Überblick über die derzeit erhältlichen Lösungen. Ungefähr 300 Produkte werden dort derzeit geführt, vom seniorenfreundlichen Handy mit extra großen Tasten, dem One-Touch-Dosenöffner, Sturzerkennungsmatten oder Ortungsgeräten für weglaufgefährdete Menschen. Auch Systeme für Angehörige zur Tagesablaufkontrolle per Smartphone-App gibt es. Doch es hat noch einen weiteren Grund, warum sich AAL-Produkte so schwer vermarkten lassen: „Altern und Hilfsbedürftigkeit ist nicht sexy. Wenn Sie AAL-Produkte kaufen gestehen Sie sich damit ganz oft ein, dass sie hilfsbedürftig sind“, konstatiert René Stephan. Die eigene Stigmatisierung halte viele potenzielle Kunden von einem Kauf ab, auch wenn die Produkte ihnen helfen könnten. Am FZI setzt man deshalb vor allem auch auf eine verstärkte Beratung in den Kommunen. Derzeit gibt es bundesweit knapp 20 staatlich geförderte Beratungsstellen, die Senioren und Angehörigen den Zugang zur Technik erleichtern sollen.

Wer soll’s bezahlen?
Auch branchenintern wird noch darüber gestritten, wer von den AAL-Stakeholdern die Rolle des Technologie-Zugpferds übernehmen soll. Auf dem AAL Fachkongress 2016 in Karlsruhe betonte Carmen Mundorff von der Architektenkammer Baden-Württemberg, dass die Prioritäten der Wohnungswirtschaft in erster Linie darin lägen, die „Rufe nach bezahlbarem Wohnraum“ zu erfüllen. Dafür müssten auch Abstriche bei der Technik gemacht werden. Auch der Pflegeverband AWO relativiert den ungebremsten Glauben an die neue Technik: AAL sei „keine Lösung des Pflegenotstandes“, sagt Markus Broeckmann, Geschäftsführer der AWO Pfalz. Harald Röckler von der Krankenkasse AOK Mittlerer Oberrhein stellt heraus, dass AAL-Lösungen „individuelle Hilfen“ seien, für die eine „Entscheidung pro Einzelfall“ notwendig sei. Die Zurückhaltung der Akteure mag auch damit zusammenhängen, dass es an langfristigen Feldstudien über den wirtschaftlichen und medizinischen Nutzen von AAL-Systemen derzeit noch mangelt, ein Nachweis, der z. B. für die Aufnahme in den Leistungskatalog der Kranken- und Pflegekassen erbracht werden muss. Am Ende bezahlt also momentan noch ausschließlich der Endverbraucher.

Verzahnung von Technik und sozialem Umfeld
Senioren-WGs und -Genossenschaften, Mehr-Generationen-Wohnen und betreutes Wohnen sind bekannte Gegenentwürfe zum Pflegeheim und oft auch ein wirksames Mittel gegen die Vereinsamung. Technik kann auch hier einen Mehrwert bieten oder gute Kontakte und Nachbarschaften sogar erst befördern, z. B. über den Austausch über eine gemeinsame Kommunikationsplattform. Das Bundesministerium für Familie, Senioren, Frauen und Jugend erprobt im Rahmen des Modellprogramms „Zuhause im Alter“ neue Formen des generationenübergreifenden Zusammenlebens. In Modellprojekten werden bestehende Wohnräume zu barrierefreien Quartieren mit Begegnungsräumen, Pflegeausstattung und dem Zugriff auf alltagsunterstützende Beratungs- und Dienstleistungsangebote, z. B. für Hilfe bei der Haushaltsführung, umfunktioniert. Auch die Technik hat hier ihren festen Platz.

Renate Midau hat jedenfalls die passende Lösung für sich gefunden. Das merkt sie vor allem daran, dass sie die neue Technik im Alltag überhaupt nicht mehr wahrnimmt.