Diese Apps unterstützen Sie bei Allergien und Unverträglichkeiten

Zur Veröffentlichung

Heuschnupfen, Asthma, Insektengiftallergie oder Nahrungsmittelunverträglichkeiten – Apps können das Leben mit einer Allergie erleichtern. Wir haben eine Auswahl getestet.

In Deutschland leidet knapp jeder Fünfte unter mindestens einer Allergie. Tränende oder brennende Augen, triefende Nase, Hautausschläge oder sogar Atemnot – die Beschwerden sind vielseitig und nicht immer harmlos. Bei Pollen- und Gräserallergien, Asthma, Nahrungsmittelunverträglichkeiten oder auch Insektenstichallergien gilt es daher, die Auslöser zu meiden.

Apps können dabei unterstützen. Sie helfen, Allergieauslösern aus dem Weg zu gehen oder zumindest vorbeugende Maßnahmen zu treffen. Sie liefern Hintergrundwissen und wichtige Tipps für den Notfall. Digitale Helfer können eine Allergie nicht heilen. Aber sie können den Betroffenen helfen, besser mit der Erkrankung zu leben.

Wir haben eine Auswahl an Apps für verschiedene allergische Erkrankungen getestet.

Allgemeines zum Datenschutz

Grundsätzlich räumten alle getesten Apps den Nutzenden die Möglichkeit zur Berichtigung und Löschung (Art. 16 und 17 DSGVO) der eigenen personenbezogenen Daten sowie ein Auskunftsrecht (Art. 15 DSGVO) ein und berücksichtigten das Prinzip der persönlichen Einwilligung.

Apps bei Heuschnupfen

  • Klara

Zielgruppe: Menschen mit Pollenallergie ab dem 12. Lebensjahr

Wichtigste Funktionen: Mit der App können Sie Symptome bei Allergien gegen Pollen, Gräser und Kräuter und eingenommene Allergie-Medikamente protokollieren. Das persönliche Allergietagebuch wird mit Wetter-, Pollenvorhersage- und Luftqualitätsmessungs-Diensten abgeglichen, um die tagesabhängige individuelle Belastung zu bestimmen. Dazu gibt es einen Allergiekalender und Tipps zum Allergiemanagement passend zur individuellen Symptomatik. Wer will, kann sich per Push-Benachrichtigung regelmäßig erinnern lassen.

Was uns besonders gut gefallen hat: personalisiertes Allergie-Management, lockere und übersichtliche Benutzeroberfläche

Was nicht so toll war: Tipps zum Allergiemanagement sind häufig an die Produktpalette des Herstellers ALK geknüpft

Was mit Ihren Daten passiert: Persönliche Daten werden DSGVO-konform verarbeitet. Hierfür ist eine Einwilligung nötig und es gibt eine Zweckbindung. Die Weitergabe an Dritte (ALK-Partnerunternehmen, „relevante externe Datenverarbeiter“) ist vorgesehen. Alle persönliche Daten lassen sich jederzeit bearbeiten und löschen und in andere Anwendungen mitnehmen (die sogenannte Datenübertragbarkeit ist gesichert). Auch können die Daten heruntergeladen werden, sowie ihre Verarbeitung „eingeschränkt“ werden. Klarify verspricht „angemessene technische und organisatorische Sicherheitsmaßnahmen“ zum Schutz der App und der darin enthaltenen Daten.

Entwickelt im Auftrag von: klarify.me, ALK e-com A/S (Allergie Labor Kopenhagen)

Smartphone Betriebssystem: ab iOS 10.0, ab Android 5.0, Download hier

Preis: kostenlos

  • Husteblume

Zielgruppe: Menschen mit Allergien ab dem 12. Lebensjahr

Wichtigste Funktionen: Mit einem Selbsttest können Sie ihr persönliches Risiko einer allergischen Atemwegserkrankung (Heuschnupfen) bestimmen. In einem Pollenkalender lässt sich die täglichen Belastung für Augen, Nase und Lunge mit der entsprechenden Symptomatik -Jucken, Rötung, Husten oder ähnliches- für das jeweilige Allergen eintragen. Auch Kommentare zum Gesamtbefinden und zur Einnahme von Medikamenten sind möglich. Auf Basis dieser Informationen wird eine „Belastungsprognose“ erstellt. In einem Lexikon finden Sie allgemeine Informationen zu Allergenen. Zum Beispiel Blütezeit, mögliche Kreuzallergien zu anderen Stoffen, und ob die betreffende Pflanze besonders stark Allergien hervorruft (Potenz des Allergens). Außerdem steht ein regionaler Pollenflugkalender sowie eine kleine Mediathek mit Tipps in Form kurzer Video-Clips bereit.

Was uns besonders gut gefallen hat: Symptome lassen sich sehr genau einstellen

Was nicht so toll war: Es kann bis zu zwei Wochen dauern, bis eine langfristige Auswertung der Beschwerden (in Zusammenarbeit mit der Medizinischen Universität Wien) zur Verfügung steht; graue Optik

Was mit Ihren Daten passiert: Es gibt eine Weiterleitung der persönlichen Daten (Tagebuch, Symptome-Angaben, Selbsttest-Fragebogen, GPS-Daten in „verwaschener Form“) an die TK und Dritte (mobivention GmbH, Medizinische Universität Wien, TK). Trotz Generierung einer „technischen Nutzer-ID“ (Pseudonymisierung) ist laut Hersteller keine Zuordnung der Daten zu einer konkreten Person möglich. Auch eine „anonymisierte oder pseudonymisierte“ Weiterleitung der Daten „für wissenschaftliche Zwecke“ behalten sich die Entwickler vor. Auch eine Weiterleitung „an andere Forschungsinstitute“ für Studienzwecke, dies geschieht jedoch nicht ohne Einwilligungserklärung.

Entwickelt im Auftrag von: Techniker Krankenkasse

Smartphone Betriebssystem: ab iOS 11.0, ab Android 6.0, Download hier

Preis: kostenlos

Apps bei Asthma

  • breazyTrack

Zielgruppe: Menschen mit Asthma ab dem 17. Lebensjahr

Wichtigste Funktionen: Für eine Ersteinschätzung stellt die App einen Asthma-Fragebogen auf Basis der GINA-Richtlinien (Global Initiative for Asthma) bereit. In einem Tagebuch können Sie Ihre Symptome, eventuell eingenommene Medikamente und die Peak-Flow-Werte erfassen. Die App bietet eine PDF-Berichtsfunktion beispielsweise zur Weitergabe des Protokolls an eine ärztliche Praxis. Regionale Umweltdaten mit Pollenflugvorhersage und Biowetter-Angaben (zum Beispiel Ozon und Feinstaub) liefern vorausschauende Informationen. Der Gesamtkomplex aller angegebenen Symptome wird innerhalb eines Zeitraums von sieben Tagen von der App ausgewertet. So sollen Betroffene neue Zusammenhänge und Tendenzen des individuellen Krankheitsverlaufs erkennen und verstehen lernen. Gegen Aufpreis gibt es Pro-Module. Diese bieten Zusatzfunktionen wie die Möglichkeit alle Daten auszudrucken, Asthma-Belastungsvorhersagen und Atemschulung.

Was uns besonders gut gefallen hat: gute Einführung, übersichtlich gestaltetes Tagebuch, einfacher Schritt-für-Schritt-Notfallplan

Was nicht so toll war: Werbung für Pro-Module nimmt Großteil der Startseite ein

Datenschutz: Die angegeben Gesundheitsinformationen werden an die Server des Herstellers übermittelt und einer „Breazy-ID“ zugeordnet. Es findet also keine Anonymisierung, sondern lediglich eine Pseudonymisierung statt. Eine Anonymisierung erfolgt erst, nachdem die Daten für die angegebenen Zwecke, in die der Nutzer eingewilligt hat, nicht mehr verwendet werden (z. B. nach einer Löschung der Daten).

Entwickelt von: breazy-health GmbH

Smartphone Betriebssystem: ab iOS 9.0, ab Android 4.1, Download hier

Preis: kostenlos, Pro-Module zwischen 0,99 und 1,99 €

Apps bei Insektengiftallergie

  • Stichalarm

Zielgruppe: Menschen mit Insektengiftallergie ab dem 12. Lebensjahr

Wichtigste Funktionen: Über einen Risikofragebogen können Sie ermitteln, ob Sie überhaupt zur Zielgruppe der Personen mit Allergie gegen Insektenstiche gehören. Ansonsten liefert die App ein eher breites Wissensangebot zu Allergieformen, Insekten, Tests, Hyposensibilisierung und Erste-Hilfe-Maßnahmen im Notfall. Ein Stich-Tagebuch dient der Dokumentation. Auf einer Karte können Sie bei bestehender Internetverbindung die nächste geeigneten fachärztliche Praxis finden. Tipps zur Vermeidung von Stichen und eine Erinnerungsfunktion runden das Angebot ab.

Was uns besonders gut gefallen hat: unkompliziertes Stichjournal; lokale Facharztsuche

Was nicht so toll war: keine Funktion zum Ausdrucken des Journals, zum Beispiel zur Vorlage in der ärztlichen Praxis

Datenschutz: Anonymisierte Auswertung der Daten durch einen „externen Dienstleister“, ALK behält sich Nutzung der Daten für „wissenschaftliche Zwecke“ und „Verbesserung der Dienste“ vor. Es gibt eine Verzahnung mit dem herstellereigenen Online-Portal allergiescheck.de. Außerdem werden personenbezogene Daten erhoben, wenn man sich für eine Hyposensibilisierungs-Therapie registriert.

Entwickelt von: Screencode GmbH im Auftrag von ALK-Abelló Arzneimittel GmbH

Smartphone Betriebssystem: ab iOS 10.0, ab Android 4.4, Download hier

Preis: kostenlos

Apps bei Nahrungsmittelunverträglichkeiten

  • CodeCheck

Zielgruppe: Unterstützung für eine gesunde Ernährung und bei Nahrungsmittelunverträglichkeiten, ab dem 4. Lebensjahr

Wichtigste Funktionen: Mit der App können Sie über die Smartphone-Kamera die Barcodes von Lebensmitteln scannen und erhalten sofort Auskunft zu relevanten Inhaltsstoffen wie Gluten, Laktose, speziellen Allergenen und weiteren Reizstoffen. Auch ob das Produkt vegan oder vegetarisch ist, ist vermerkt. Eine Nährwertampel liefert einen schnellen Hinweis auf bedenkliche Fett-, Zucker- und Salzmengen, alternative Produktvorschläge werden gleich angezeigt. Die umfassende Produktdatenbank basiert auf unabhängigen Informationsquellen (Bund für Umwelt und Naturschutz, Greenpeace, Europäische Union, Deutscher Allergie- und Asthmabund u. a.) und lässt sich nach den persönlichen Vorlieben filtern und durchsuchen.

Was uns besonders gut gefallen hat: sehr intuitive und praktische App, Nutzen für den Alltag sofort erkennbar, unabhängige Informationsquellen, durch Nutzer erweiterbare Produktdatenbank

Was nicht so toll war: viel Werbung in der Basis-Version (Pro-Version gegen Aufpreis verfügbar)

Datenschutz: Leider werden zahlreiche Tracking- und Analyse-Tools eingesetzt (Google Adwords, Facebook, Adjust, Survey Town, und noch einige weitere), Rückschlüsse auf die eigene Person sollen aber nicht möglich sein.

Entwicklung im Auftrag von: Codecheck AG

Smartphone Betriebssystem: iOS, Android, Download hier

Preis: Basis-Version kostenlos, Pro-Version: 2,99 €/Monat, 19,99 €/Jahr, 10,99 €/6 Monate

  • Frag Ingrid

Zielgruppe: Menschen mit Nahrungsmittelallergie ab dem 12. Lebenjahr

Wichtigste Funktionen: In der App können Sie ein persönliches Intoleranz-Profil für Laktose, Fructose, Histamin, Sorbit, Gluten, Reizdarm und FODMAP (fermentierbare Oligo-, Di-, Monosaccharide und Polyole) anlegen. Auf dieser Grundlage und zusammen mitwissenschaftlichen Daten und Community-Bewertungen wird ein „Verträglichkeitsindex“ für einzelne Nahrungsmittel berechnet. Kuratiert werden die Daten von der gemeinnützigen Initiative „Society for Public Health“ aus Österreich.

Was uns besonders gut gefallen hat: minimalistische Aufmachung, man kann unterscheiden zwischen Karenzphasen (Zeiten, in denen auf spezielle Nahrungsbestandteile, wie Fructose, gezielt verzichtet wird) und Dauerernährung (normale, alltägliche Ernährung ohne spezielle Diät)

Was nicht so toll war: Die Handhabung der in der Produktdatenbank hinterlegten Nahrungsmittel ist nicht immer intuitiv, wenn man sie mit eigenen Unverträglichkeiten abgleichen möchte. So werden beispielsweise die Inhaltsstoffe Hafer, Gerste oder auch Dinkel aufgeführt, aber nicht die entsprechenden Brotsorten. Mit welcher Datengrundlage der „Verträglichkeitsindex“ (in Form einer Ampel) ermittelt wird, ist nicht wirklich nachvollziehbar. Stattdessen wird darauf verwiesen, sich nicht immer blindauf die App zu verlassen, sondern individuelle Erfahrungen und Gewohnheiten, z. B. bei der Zubereitung von Speisen, zu berücksichtigen.

Datenschutz: In der Regel keine Weitergabe der Angaben zu Nahrungsmittel-Intoleranzen an Dritte. Anonymisierte Daten für statistische Zwecke werden aber weitergereicht. Analysetools (mit Ausnahme der Analyse-Tools des App-Stores von Apple und des Google Play Store) kommen nicht zum Einsacht. Positiv: Die sensiblen Gesundheitsdaten werden ausschließlich lokal auf dem Gerät gespeichert.

Entwickler: Michael Zechmann

Smartphone Betriebssystem: ab iOS 12.0, ab Android 5.0, Download hier

Preis: Basis-Version kostenlos, werbefrei: 5,99 € pro Jahr

Datentracking: Welche Apps das Coronavirus eindämmen sollen

Zur Veröffentlichung

Politik und Wissenschaft hoffen, mit dem Nachverfolgen von Daten die Ausbreitung des Coronavirus eindämmen zu können. Nur – welche Strategien sind vielversprechend?

Standort-Tracking per GPS, die Auswertung von Bewegungsdaten der Mobilfunkanbieter oder das Nachvollziehen von Kontaktpersonen per Bluetooth. Das sind nur ein paar Beispiele, wie das Sammeln und Auswerten von Daten dabei helfen soll, die Ausbreitung des Coronavirus zu kontrollieren und gleichzeitig einen Alltag mit wenig Beschränkungen zu führen. Doch schon an diesen drei Beispielen wird ersichtlich: Das eine Daten-Tracking gibt es nicht. Wir geben hier einen Überblick, welche Ansätze es deutschland- und europaweit gibt.

„Contact Tracing“ – die App der Bundesregierung

„Contact Tracing“ bleibt das Konzept der Stunde, um Kontaktpersonen von Infizierten schnell zu benachrichtigen, damit sich diese in Quarantäne begeben und damit die Infektionskette unterbrechen können. Das Prinzip funktioniert so: Über ein App auf dem Smartphone werden enge Kontaktpersonen per Bluetooth anonym über eine zufällig generierte Identifikationsnummer erfasst und in einer Liste auf dem Smartphone gespeichert. Enge Kontaktpersonen sind dabei all diejenigen, mit denen der Nutzende mindestens 15 Minuten lang bei einem Abstand von weniger als zwei Meter Kontakt hatte. Bei einem Infektionsfall können die Kontaktpersonen der letzten 14 Tage persönlich benachrichtigt werden. Dazu muss der Infizierte die auf dem eigenen Smartphone gespeicherte Kontaktliste erst freigeben.

Der große Vorteil des Verfahrens: Es werden keine Standortdaten erhoben. Und trotzdem ist die Erfassung maximal personenspezifisch. Auch lässt die Anonymisierung – wenn technisch richtig umgesetzt – prinzipiell keinen (direkten) Rückschluss auf die jeweilige Identität der betreffenden Personen zu.

Einer der Nachteile: Die Bluetooth-Technologie ist schon recht alt und gilt unter Sicherheitsexperten als unsicher und prinzipiell hackbar.

Die Frage, ob die Daten auf einem zentralen Server oder dezentral auf den eigenen Geräten gespeichert werden, hat sich geklärt: Die Regierung möchte auf eine dezentrale Softwarearchitektur setzen, bei dem die Geräte der Nutzenden untereinander kommunizieren und die Daten nicht auf einem zentralen Server gelagert werden. Das ermöglicht es auch, dass die Apps mit den Smartphone-Systemen von Apple und Google verknüpft werden können und dadurch effizienter und sicherer werden.

PEPP-PT – der europäische Standard

Die Initiative PEPP-PT (Pan-European Privacy-Preserving Proximity Tracing) besteht aus Wissenschaftlerinnen, Wissenschaftlern und Fachleuten aus acht europäischen Ländern, unter anderem Christian Boos, Mitglied im Digitalrat der Bundesregierung und den Fraunhofer-Instituten. Sie hat den Versuch gestartet, einen europaweiten Standard für eine Tracking-App zu entwickeln und damit auch ein länderübergreifendes Tracking zu ermöglichen. So sollen Infektionsmeldungen beispielsweise europaweit an die betroffenen Kontakte weitergeleitet werden. Auf Grundlage der erarbeiteten Technologie können die Länder Europas dann ihre ganz individuellen Apps entwickeln – auf Basis der zentralen Grundsätze der DSGVO für die Verarbeitung personenbezogener Daten wie Zweckgebundenheit oder sparsame Erhebung von Daten.

„Faster than corona“ und Co. – das Prinzip Datenspende

Citizen Science-Initiativen wie „Faster than corona“ oder auch die geoHealthApp des Medizinstudenten Maxim Gleser, die durch Crowdfunding finanziert wurde, stellen weitere Möglichkeiten des Datentrackings im Zuge der Coronapandemie dar. Diese Ansätze sind auf Datenspenden der Nutzenden angewiesen. Die geoHealthApp funktioniert beispielsweise nur, wenn Nutzende freiwillig Zugriff auf ihr Bewegungsprofil auf dem Handy erlauben oder anonymisiert angeben, dass sie mit dem Virus infiziert sind. Dann soll die App anderen Nutzenden anzeigen, dass sie möglicherweise Kontakt mit einem infizierten Nutzer hatten.

Auch das Robert-Koch-Institut setzt auf Datenspenden. „Corona-Datenspende“ heißt die App, die auf die Gesundheitsdaten von Fitnesstrackern und anderen Wearables zugreifen will, um beispielsweise anhand veränderter Vitaldaten, Gewichtsabnahme oder ungewöhnlicher Schlafgewohnheiten schneller auf mögliche Symptome zu schließen. Hinter der Realisierung der App steckt das Unternehmen Thryve der mHealth Pioneers GmbH, zu dessen Investoren unter anderem der Unternehmer Carsten Maschmeyer gehört. Das Unternehmen gibt sich transparent, erlaubt allerdings keinen vollständigen Einblick in den Quellcode und die Datenverwertung. Die allgemeine Schwierigkeit hinter den Datenspenden: Ob das Projekt erfolgreich ist oder nicht, hängt von der Richtigkeit der Daten ab. Der Aufwand, diese zu kontrollieren, ist oft sehr hoch und manchmal nicht umzusetzen.

Andere Länder im Vergleich

Asiatische Länder wie Südkorea oder auch China gelten als Vorbilder beim „Contact- Tracing“. Allerdings sind viele dieser Initiativen in staatliche Überwachungsprogramme eingebunden, die nicht den europäischen Maßstäben entsprechen.

So können Personen aus Südkorea Standortdaten und Bewegungsdaten freiwillig vom Staat auswerten lassen. Zusätzlich hat der Staat Zugriff auf die Daten von Überwachungskameras und Kreditkartenzahlungen, um Kontaktpersonen zu infizieren. So werden beispielsweise Orte, an denen sich möglicherweise infizierte Personen besonders oft aufgehalten haben, auf Grundlage eben dieser Daten von der Regierung auf einer Karte farblich hervorgehoben.

In China ermittelt eine von den Internetgiganten Alibaba und Tencent entwickelte App das Infektionsrisiko jeder einzelnen Person. Anhand eines QR-Farbcodes müssen sich die Landesbewohner damit vor den Behörden ausweisen. Dazu kommen die üblichen Überwachungsmaßnahmen der chinesischen Regierung.

Einwohner der Stadt Singapur erhalten Benachrichtigungen zur Pandemie von der Regierung über den Nachrichtendienst WhatsApp. Die App „TraceTogether“ basiert auf Bluetooth-Basis und gilt als technisches Vorbild unter anderem für die App, die die Bundesregierung plant. Anders als in Deutschland vorgesehen, speichert „TraceTogether“ auch die Telefonnummer.

In Hong Kong müssen Infizierte Armbänder tragen, die über einen QR-Code mit der App „StayHomeSafe“ gekoppelt werden. Danach müssen Infizierte oder Einreisende anhand der Wi-Fi-, Bluetooth- und GPS-Signale des Aufenthaltsorts ein Funksignalprofil der eigenen Quarantäne-Zone erstellen. Wird die so festgelegte Quarantäne-Zone durchbrochen, schickt der Staat eine Warnmeldung auf das Smartphone. Es drohen Geldstrafen von über 3.000 Dollar.

In Israel hat Regierungschef Benjamin Netanyahu sogar den Inlandsgeheimdienst Schin Bet miteinbezogen. 30 Tage lang hat dieser dort seit Mitte März Zugriff auf Bewegungs- und Standortdaten, die im Rahmen des Corona-Trackings erhoben wurden.

Arztpraxis der Zukunft: Alexa kann jetzt auch Anamnese. Na ja, fast. (erschienen in EHealth 02/20)

Bild: Amazon

Wie sieht die Arztpraxis der Zukunft aus? Das will die Kassenärztliche Bundesvereinigung (KBV) wissen und hat das Modellprojekt „Zukunftspraxis“ ins Leben gerufen, das innovativen E-Health-Start-ups die Erprobung ihrer Produkte in der ärztlichen Praxis ermöglicht. Drei weitere Projekte haben jetzt den Weg in die Umsetzung gefunden. Diesmal im Fokus: die digital unterstützte Anamnese und eine PVS-Lösung aus der Cloud. Schon etwas länger dabei: ein KI-Telefonassistent.

Noch ist viel im Fluss. Diese Einschätzung teilt auch Juraj Kralj, Marketingleiter bei Idana („Intelligente digitale Anamnese“), wenn er nach den ersten Ergebnissen des Praxistests im Rahmen des KBV-Projekts „Zukunftspraxis“ gefragt wird. Das Unternehmen aus Freiburg entwickelt eine Software zur Digitalisierung von (kundenindividuellen) Anamnesefragebögen mit digital signierbaren Formularen. Über eine Web-App sollen die erfassten Daten über eine GDT-Schnittstelle direkt in die Software des PVS wandern und sich dort unkompliziert organisieren und weiterverarbeiten lassen. Das Konzept soll es z. B. ermöglichen, dass Patienten Fragebögen bereits zu Hause auf dem Smartphone oder auch im Wartezimmer auf dem Tablet ausfüllen können.

„Es geht für uns auch darum zu erfahren, welche Prozesse sich aus dem Produkt Idana überhaupt erst ergeben. Jede Anbindung an eine Hausarztpraxis bedeutet für uns erst mal wertvolle Erfahrungen, die wir in die Weiterentwicklung des Projekts stecken können, und das natürlich möglichst in kürzester Zeit. Insbesondere der Austausch mit allen Stakeholdern ist uns wichtig.“ Das Unternehmen konzentriere sich momentan noch auf Arztpraxen und medizinische Versorgungszentren. Auch Kliniken könnten für das Unternehmen langfristig interessant sein, wenn das technologische Umfeld stimme, sagt Juraj Kralj.

Zehn Unternehmen durchlaufen Tests in den Arztpraxen
Insgesamt zehn Unternehmen sind Teil des KBV-Modellprojekts. Mit dabei ist neue Medizintechnik für die Hautkrebsfrüherkennung, die bekannte Medizin-App ada Health, ein sensorbasierter Inhalator für personalisierte Therapieempfehlungen oder auch eine Datenbrille, AMA Xpert Eye, mit der Pflegekräfte bei der täglichen Arbeit im Versorgungsalltag Bild- und Datenmaterial an den Hausarzt übermitteln können. Alle diese Produkte werden bereits im Praxisalltag im Rahmen sogenannter Praxistests erprobt.

Dabei sollen praktische Erfahrungen aus dem Ärztealltag mit wissenschaftlicher Evaluation gekoppelt werden. In Zusammenarbeit mit dem Institut für Medizinische Soziologie und Rehabilitationswissenschaften der Charité unter Leitung von Prof. Dr. Adelheid Kuhlmey werden die ausgesuchten Produkte anhand von Fragebögen ausgewertet, die zu drei Zeitpunkten der Testphase von den Arztpraxen ausgefüllt werden, z. B. um die technischen Voraussetzungen abzufragen, Erfahrungswerte in den ersten Monaten und schließlich den konkreten Nutzen abschließend zu bewerten.

Die Fragebögen sollen sowohl einen allgemeinen Teil als auch produktspezifische Fragestellungen enthalten. Auch anonymisierte Nutzungsdaten wie die Nutzungshäufigkeit oder der Ausfall eines Systems fließen in die Evaluierung ein. Zusätzlich werden die Produkte AMAXperteEye und ada Health an der Charité zusammen mit Studierenden getestet, um ihren Nutzen in unterschiedlichen Szenarien der Versorgung und Lehre stichprobenartig zu bewerten. Bis 2022 soll eine abschließende Evaluation nach wissenschaftlichen Kriterien vorliegen.

Die Neuen
Vier Anbieter sind erst seit Kurzem im Praxistest und sammeln derzeit erste Erfahrungen. Neben Idana sind das Klindo und Red Medical sowie der KI-Telefonassistent Aaron.ai. Die Software Klindo („Klinische Dokumentation“) zielt, ähnlich wie die Idana-Lösung, auf eine Digitalisierung von Anamnese-Fragebögen, allerdings mit Fokus auf psychologisch und psychotherapeutisch arbeitende Praxen, die mithilfe psychometrischer Tests Indikationen wie Depressionen, Demenz oder auch ADHS abfragen. Im Zentrum des Praxistests steht die Frage, ob sich mit der Software der tägliche Bürokratieaufwand in Arztpraxen eindämmen lässt.

Red Medical ist ein KBV-zertifiziertes Cloud-PVS-System, das als „Software as a service“ komplett außerhalb der Praxis betrieben wird. Die Lösung verspricht intelligente und vor allem sichere Prozesse für Abrechnung, Dokumentation, den praxisinternen Datenaustausch, z. B. zwischen PVS und anderen Medizingeräten, und die Datenauswertung. Aaron.ai schließlich ist ein Telefonassistent auf KI-Basis. Er nimmt Anrufe entgegen, analysiert das Anliegen der Anrufer, fragt die für die Praxis relevanten Basisinformationen ab und stellt alle Informationen auf einer Web-Oberfläche bereit. Das Praxisteam kann entweder klassisch zurückrufen oder über die Software eine SMS verschicken. Der Hersteller wirbt vor allem mit einer einfachen Einbindung mittels offener Schnittstellen, ob in eine Telefonanlage, eine App, Website oder auch in einen smarten Assistenten wie Amazon Alexa oder Google Home.

Auf Herz und Nieren
In der Praxis für Allgemeinmedizin von Dr. Daniela Schoch im sächsischen Kirschau wird derzeit der Telefonassistent Aaron.ai im Praxisalltag erprobt. Der „erweiterte Anrufbeantworter“, wie Manfred Dunkelmann, Praxismanager der Praxis, es nennen würde, soll einen klar definierten Zweck erfüllen: die Erreichbarkeit der Arztpraxis verbessern. Ein Ziel, das auch erklärtes gesundheitspolitisches Ziel der KV Sachsen in den Jahren 2017 und 2018 war und für das insgesamt ca. 7,2 Millionen Euro bereitgestellt wurden. Über diesen Zeitraum hinaus wurde das Vergütungsmodell aber nicht verlängert.

„Der KI-Assistent erspart den Sprechstundenhilfen nach wie vor Stress“, sagt Manfred Dunkelmann. „Wenn es eng wird am Empfang und gleichzeitig das Telefon ständig klingelt, können die Schwestern eingehende Anrufe auch erst mal noch später abarbeiten, und das ohne schlechtes Gewissen.“ Anders als bei einem klassischen Anrufbeantworter müssen die Anrufe nicht einzeln abgehört werden. Die Patienten würden das Gerät annehmen, aber manchmal gebe es Probleme: wegen des ausgeprägten Dialekts der Anrufer, so der Praxismanager.

Auch eine selbstständige Terminvergabe übernimmt der KI-Assistent nicht. Gerade auch wegen der Pflicht zur schnellen Vergabe von Arztterminen im Einzelfall nach dem Terminservice- und Versorgungsgesetz (TSVG) sieht Manfred Dunkelmann eine mögliche Vollautomatisierung der Terminvergabe kritisch. Positiv zu bewerten sei, dass der Telefonassistent in das Konzept der papierlosen Praxis passe, ein Ziel, das sie in Kirschau mit hoher Priorität vorantreiben. Eine eigene Website spart man sich in der Landarztpraxis hingegen.

Auf der Suche nach „sinnvollen“ Anwendungen
Die Versprechen der Digitalisierung sind groß, auch im Gesundheitswesen, doch was damit „sinnvollerweise“ gemeint ist, ist oftmals noch unklar. Die Ideen der Unternehmen sind da, doch die Praxis ist voller (unvorhersehbarer) Tücken, gerade bei der Einführung von Produkten, deren Potenzial (auch) in der Vernetzung liegt und für die erst noch Erfahrungswerte gesammelt werden müssen. Genau hier setzt das KBV-Modellprojekt „Zukunftspraxis“ an.

Dass die Digitalisierung  auch im Hausarztwesen weiter voranschreitet, steht außer Frage. Das geht aus dem „Praxisbarometer Digitalisierung“ der KBV eindeutig hervor. Allerdings ist die Umsetzung in den verschiedenen Teilbereichen sehr unterschiedlich ausgeprägt. Für drei Viertel der Arztpraxen bedeutet Digitalisierung vor allem die Digitalisierung der Patientendokumentation. Auch verfügen 80 Prozent der Arztpraxen über medizinische Geräte, die mit digitalen Schnittstellen ausgestattet sind, die bei einer deutlichen Mehrheit der Praxen auch an das PVS angeschlossen sind.

Eindeutige Digitalisierungsdefizite gibt es hingegen z. B. bei der Kommunikation nach außen, sei es bei der schriftlichen Kommunikation mit anderen Ärzten, beim Austausch von Behandlungsdaten mit Krankenhäusern oder auch der Einbindung erweiterter digitaler Angebote für Patienten. Alles Mängel, die der Gesetzgeber mit seinen Initiativen zu DGV, ePA und Telematikinfrastruktur zu beheben versucht. Was sich bei den Gesprächen mit allen Projektbeteiligten aber jetzt schon ebenfalls abzeichnet: Digitalisierung bedeutet nicht nur Effizienzgewinne und neue Prozesse, sondern vor allem auch ein neues soziales Miteinander. Schon die einfache Installation eines Telefonassistenten auf dem Land macht das schnell deutlich.

Link zur Veröffentlichung

Rechnen am Rand: Wie Edge Computing das Internet der Dinge effizienter machen soll (erschienen bei 1E9 am 12.02.20)

Bild: Lanner

Das „Internet der Dinge“ existiert – und wächst immer weiter. Doch wenn das Elektroauto automatisch mit der Ladesäule kommuniziert, Sensoren den Straßenverkehr steuern und das Smart Home unsere Alltagsgewohnheiten analysiert, entstehen ganz neue Datenströme. Diese ständig in die Cloud zu übertragen kann dauern, verbraucht Energie und ist nicht gerade datensparsam. Abhilfe verspricht das Prinzip des „Edge Computing“. Wir erklären, was damit gemeint ist.

Früher standen in den meisten Wohnungen Personal Computer. Dank ihrer Prozessoren, Grafikkarten und ihres internen Speichers waren sie ziemlich schlau, bekamen aber trotzdem nie das Prädikat smart verliehen. Heute stehen in vielen Wohnungen Smart Speaker, die von sich aus eigentlich nicht allzu schlau sind, weil sie nur über schwache Hardware verfügen. Ihr Gehirn liegt meist in der Cloud, besser gesagt: auf Servern großer Unternehmen. Daran angeschlossen sind sie über das Internet. Und damit wären wir auch schon beim „Internet der Dinge“.

Das gilt als der nächste große Schritt in der Weiterentwicklung des Internets, das damit immer mehr Bereiche unseres Lebens und unserer Wirtschaft durchdringen soll. So gut wie alle Geräte sollen ans Netz angeschlossen werden, weil dadurch eine Vielzahl neuer Services und Anwendungen denkbar sind. Hauptsache smart, versteht sich.

Laut einer Analyse von IoT Analytics umfasst das Internet der Dinge derzeit etwa 9,5 Milliarden aktive IoT-Geräte weltweit – von Fahrstühlen über Container bis zu smarten Stromzählern, die oft über spezialisierte IoT-Plattformen miteinander integriert sind. Doch das ist erst der Anfang. Bis zum Jahr 2025 sollen es sogar 28 Milliarden Geräte werden. Und da sind Laptops, Tablets oder Smartphones noch nicht einmal eingerechnet.

Der Hunger nach Echtzeit wächst
Nicht jedes dieser 28 Milliarden Devices wird riesige Datenmengen produzieren, aber viele davon. Es werden also definitiv mehr Daten, die verarbeitet werden müssen. Das schon angesprochene Problem: In der Regel müssen die Daten dazu bisher an einen zentralen (Cloud-)Server übertragen werden, weil nicht jedes Gerät selbst die nötige Rechenpower hat. Oder weil die Anbieter von bestimmten Diensten die Daten gerne zentral speichern – man weiß ja nie, wozu man sie noch brauchen könnte.

Wird der Vorgang allerdings über ein eher schwaches Netz – sei es das Mobilfunknetz, ein lokales WLAN oder Bluetooth – abgewickelt, kann das Latenzen, also Verzögerungszeiten, zur Folge haben. Gerade für Echtzeit-Anwendungen ist das keine Option. Stellen wir uns vor, ein Elektroauto könnte beim kurzen Warten an der Ampel über ein Induktionsfeld im Straßenbelag geladen werden, muss für den Strom aber an Ort und Stelle bezahlen. Da kann es auf wenige Millisekunden ankommen. Auch in der Medizin oder in der Überwachung von industrieller Produktion kann es um Bruchteile von Sekunden gehen, die darüber entscheiden, ob ein System wirklich brauchbar und funktional ist. Es geht also um eine möglichst intelligente Datenverarbeitung – und die ließe sich nach dem heutigen Stand der Technik in vielen Fällen auf den Geräten selbst abwickeln.

Genau hier setzt das Edge Computing an, das Rechnen am Netzwerkrand. Das Ziel ist die Optimierung des Datenflusses – also die sinnvolle Festlegung, welche Daten direkt im Gerät des lokalen Netzwerks verarbeitet werden, welche sofort wieder gelöscht werden und welche Daten doch in die Cloud wandern müssen, um dort verarbeitet und gegebenenfalls gespeichert zu werden. Das Edge Computing verbindet also die Vorteile aus der Welt der schlauen, aber nicht vernetzten Personal Computer und aus der Welt der Cloud-unterstützten Smart Speaker. Das soll ein möglichst reibungsloses Nutzer-Erlebnis für IoT-Anwendungen ermöglichen, das auch noch nachhaltiger wäre, weil der Energieverbrauch für den Übertragungsweg auf einen zentralen Server wegfällt.

Das Internet der Dinge hat viele verschiedene Ränder
Prinzipiell kann sich jeder sein eigenes IoT-Ökosystem zusammenbasteln. Mithilfe eines einfachen Sensors auf Basis eines populären Mikrocontroller-Boards wie Arduino oder Raspberry Pi ließen sich ein Topf Begonien und die mühsam gezüchtete japanische Zieraprikose ans Internet anbinden, damit sie auch in Abwesenheit unterstützt von Machine-Learning -Algorithmen ideal bewässert werden können. In diesem Beispiel wären die smarten Pflanzentöpfe der Rand. Es würde aber keinen großen Unterschied machen, ob die Rechenarbeit dort oder in der Cloud stattfindet.

In komplexeren Ökosystemen sieht das anders aus. Hier kommen IoT-Plattformen ins Spiel, die den Datenverkehr koordinieren und die Spielregeln für den Datenaustausch festlegen, aber auch intelligente Analysefunktionen bereitstellen, die in der Regel auf einen zentralen Server ausgelagert sind. Jedes dieser Ökosysteme besitzt eigene „Ränder“, wo Geräte selbstständig agieren könnten – und wo sich Edge Computing möglicherweise lohnt.

Ein Beispiel wäre die Auswertung der Daten in einer industriellen Produktionslage, die mit leistungsfähigen Sensoren und Mikrochips ausgestattet ist. Hier bietet sich eine Vorauswertung „am Rand“, also in der Fabrikhalle, nicht unbedingt nur aus Performance-Gründen an, sondern auch weil sich aus dem Datenstrom an einen zentralen Firmenserver oder in die Cloud Geschäftsgeheimnisse möglicherweise leichter auslesen ließen. „Edge Computing“ kann also zu einem effektiven Datenschutz beitragen.

Das gilt auch für Anwendungen, die sich an private Nutzer richten. Wenn, zum Beispiel, Patienten Gesundheits-Apps oder Gesundheits-Wearables nutzen, könnte es vorteilhaft sein, die Analyse der Daten, etwa mithilfe von Künstlicher Intelligenz, direkt auf den Geräten durchzuführen. Dann können die User selbst entscheiden, welche sensiblen Gesundheitsdaten sie an Unternehmen oder für Forschungszwecke weiterleiten. Auf einen zentralen Server übertragen würden dann nur die Informationen, die für die Verbesserung eines Prognosemodells wirklich erforderlich sind.

Ein weiteres Beispiel: das autonome Fahren, das Unmengen an Daten produziert. Laut ADAC fallen dabei derzeit pro Minute fünf Gigabyte an. Hier soll in Zukunft auch nicht nur „im“ Fahrzeug gerechnet werden, sondern auch „zwischen“ den Fahrzeugen, sprich: Car2Car, und zwischen Fahrzeugen und der Infrastruktur, sprich: Car2Infrastructure. Es ist also relativ einleuchtend, dass der Umweg über eine zentrale Cloud eher umständlich und teuer ist. Stattdessen kommen lokale Ad-hoc-Netzwerke zum Einsatz. Auch hier muss abgewogen werden, welche Daten wo und wie erhoben und ausgewertet werden – und welche Daten sofort wieder gelöscht werden können. Entsprechende Standards werden etwa vom Ca-2-Car Communication Consortium erarbeitet.

Neue Super-Chips für neues Computing
Damit Edge Computing erfolgreich sein kann, braucht es entsprechend leistungsfähige Hardware, die in den Geräten selbst steckt. Das gilt insbesondere für KI-Anwendungen. Deswegen werden Computerchips eigens für dieses spezielle Leistungsprofil entwickelt. Neue „KI-Chips“ basieren auf sogenannten „neuromorphen Prozessoren“. Solche Chips werden in Smartphones schon jetzt eingesetzt, etwa für die intelligente Analyse von Fotos. Denn sie sind für eine schnelle Mustererkennung ausgelegt, ob für die Erkennung von Personen und Orten auf Fotos oder die Stimmanalyse beim Umgang mit Sprachassistenten.

Übrigens gibt es sogar schon Edge-Computing-Lösungen, die Smart Speaker wirklich smart machen sollen – auch ohne permanenten Kontakt zur Cloud. Vielleicht wäre es also an der Zeit, sie in Personal Speaker umzubenennen? Nur so ein Gedanke.

Link zur Veröffentlichung

Was macht eigentlich ein Telenotarzt? (erschienen bei Healthcare Computing am 23.01.20)

Bild: umlaut telehealthcare GmbH

Nicht überall in Deutschland gibt es genügend Notärzte. Telenotfallmedizin soll helfen. Ein Gespräch mit dem Telenotarzt Dr. Frederik Hirsch über die Möglichkeiten und Grenzen der Behandlung aus der Ferne.

Herr Hirsch, wenn ich beim Wandern in der Eifel einen akuten Herzinfarkt erleide und der einzige zuständige Notarzt gerade unabkömmlich ist, können Sie mir dann helfen?
Ja, nach dem Eintreffen des Rettungswagens definitiv. Ein Telenotarzt kann prinzipiell alle Krankheiten versorgen. Dazu gehört auch der akute Herzinfarkt. Je nach den Veränderungen im EKG, das uns in Echtzeit übertragen wird, behandeln wir den Patienten mit den entsprechenden Medikamenten, die vom Rettungsdienst verabreicht werden. Beim Herzinfarkt unterscheiden wir z. B. – stark vereinfacht formuliert – zwischen einem leichten und einem schweren Herzinfarkt, und fordern bei einem schweren Fall noch einen Notarzt nach, weil ein solcher Infarkt mit weiteren Komplikationen behaftet sein kann.

Wie sieht denn der typische Einsatzverlauf unter telenotfallmedizinischer Betreuung aus?
Das Rettungswagenteam ruft uns an, übergibt den Patienten an uns, und erklärt uns die Situation vor Ort. Die Kommunikation läuft über ein Headset, das beide Parteien tragen. Währenddessen sehen wir auf einem Bildschirm die Vitaldaten des Patienten in Echtzeit, also Blutdruck, Herzfrequenz und Sauerstoffsättigung. Im Rettungswagen kommt dann noch ein Videobild hinzu. Nachdem wir eine Verdachtsdiagnose in die Dokumentation eingeben haben, bekommen wir einen Behandlungspfad angezeigt, der auf den Leitlinien verschiedener Ärztegesellschaften basiert. So haben wir quasi unseren Spickzettel immer vor Augen. Dann erarbeiten wir zusammen mit dem Team die Behandlungsstrategie und weisen die Medikamente an, die der Patient benötigt. Vorher fragen wir nochmal Allergien und Vorerkrankungen ab, sodass wir ein umfassendes Bild des Patienten haben, ohne ihn tatsächlich „in echt“ zu sehen. Auch die Voranmeldung bei einem geeigneten Krankenhaus übernehmen wir. Dann ist so ein Einsatz in der Regel abgeschlossen.

Sind nicht gerade bei Notfalleinsätzen besonders viel Intuition und alle fünf Sinne für die erste Einschätzung des Patienten und das Erkennen der Lage vor Ort gefragt?
Bei den ersten Gehversuchen mit dem System waren die ärztlichen Kollegen in der Tat erstmal skeptisch, ob das so funktionieren kann. Es gab durchaus Bedenken, dass die sensorischen Eindrücke, das Bauchgefühl, das erste Bild vom Patienten fehlen würde. Aber nach spätestens drei Einsätzen hat jeder Kollege hier ein Aha-Erlebnis und denkt sich: Das funktioniert ja doch! Das System lebt von der Sprache, von der Kommunikation zwischen Team und Arzt. Wir haben auch spezielle Kommunikationsstrukturen für das System entwickelt. Wir unterhalten uns ein bisschen wie Piloten, d. h. wir achten darauf, dass wir die wichtigen Informationen zuerst rüberbringen und reden in kurzen knappen Kommandos. Das hat nichts mit Unfreundlichkeit zu tun. Sie können auch schon anhand der Art des Gesprächs mit dem Rettungsteam vor Ort einschätzen, wie es um einen Patienten bestellt ist. Der Telenotarzt kann sich so schnell in die Situation einfinden, auch deshalb, weil er selbst schon als normaler Notarzt gearbeitet hat. In den meisten Fällen sind Telenotfallmediziner auch nicht reine Telenotfallmediziner, sondern zusätzlich Anästhesisten und fahrende Notärzte. Wir schicken unsere Telenotärzte zudem durch ein Assessment, damit wir sicher sein können, dass sie solche Situationen erfassen und sinnvoll führen können.

Ob Sie zum Einsatz kommen entscheidet immer das Rettungsteam vor Ort und nicht die Leitstelle, habe ich das richtig verstanden?
Sie müssen sich das so vorstellen: Ein Anruf geht bei der 112 ein, weil jemand z. B. Brustschmerzen hat. Die Disponenten in der Leitstelle entsenden dann ein Fahrzeug, das materiell und personell so ausgestattet ist, wie es ihrer Einschätzung des medizinischen Vorfalls entspricht. Wenn die Situation lebensbedrohlich erscheint, schickt die Leitstelle zusätzlich einen Notarzt oder ordert ihn hinzu. Stichwort: Rendezvous-System (Anmerkung des Autors: Nach diesem Prinzip begeben sich Rettungswagen und Notarzt getrennt zum Einsatzort. So können medizinische Einsatzkräfte über regional verteilte Einsatzstellen effizienter delegiert werden). Dieses Prinzip haben wir grundsätzlich nicht verändert. Wir kommen immer dann zum Einsatz, wenn ein Rettungswagen ohne Arzt an der Einsatzstelle ist, sich aber jetzt herausstellt, dass ein Medikament gegeben werden muss oder dass das Wissen des Arztes gefragt ist, aber nicht zwingend sein manuelles Können. Die Entscheidung, uns anzurufen, liegt also tatsächlich beim Team vor Ort. Mit nur einem Knopfdruck können sie uns erreichen und haben unmittelbar den Arzt im Ohr. Das ist der deutlich kürzere Weg als den Notarzt zur Einsatzstelle nachzufordern. Selbst wenn dies dann noch erforderlich wäre, z. B. weil wir aus der Ferne feststellen, dass es sich um einen lebensbedrohlichen Fall handelt, können wir derweil sinnvoll die Zeit mit dem Team vor Ort gemeinsam überbrücken. Zum Beispiel, indem wir die Gabe von Medikamenten oder das Ergreifens anderer Maßnahmen anleiten. Wenn der Notarzt dann eintrifft, ist der Patient zumindest einmal grundlegend versorgt.

Also ist es kein Problem, wenn sich der Gesundheitszustand eines Patienten vor Ort unvorhergesehen rapide verschlechtert und erstmal „nur“ ein Telenotarzt zugeschaltet ist?
Wir können in einer solchen Situation natürlich nicht selbst manuell eingreifen. Allerdings bekommen wir natürlich sofort mit, wenn sich etwas akut dramatisch verändert. Wir haben immer die Möglichkeit, einen herkömmlichen Notarzt nachzufordern. Es entsteht aber nicht die Situation, dass das Rettungsteam vor Ort in der Zwischenzeit nichts machen kann. Diese Situation können wir mit dem System deutlich verbessern, indem wir das Team und den Einsatz durch unser Gespräch leiten. Dadurch, dass wir nicht an der Einsatzstelle sind, stehen wir außerdem nicht unter Stress. Wir können relativ gelassen die Situation von außen steuern. Selbst wenn eine Situation sich so rasch verschlimmert, dass ein Patient wiederbelebt werden muss, gibt es dafür einen Algorithmus mit klaren Vorgaben zur Wiederbelebung. Wer macht wann was? Wir hatten bisher keinen Fall, bei dem ein Patient zu Schaden gekommen wäre, weil „nur“ ein Telenotarzt zugegen war.

Welche Fälle sind am häufigsten?
Am häufigsten werden wir zur Unterstützung einer Schmerztherapie bei akuten Verletzungen in Anspruch genommen, z. B. beim klassischen Oberschenkelhalsbruch nach einem Sturz, oder bei Sportverletzungen. Danach folgen nicht traumatisch bedingte Schmerzereignisse wie Gallen- oder Nierenschmerzen, dann Schlaganfälle und akute Herzerkrankungen. Wir begleiten auch Transportfahrten von einem Krankenhaus ins nächste. In bestimmten Fällen muss eigentlich immer ein Mediziner mit im Rettungswagen sitzen. Diese Fälle lassen sich aber oft auch sehr gut telemedizinisch abbilden, weil es dem Patienten doch relativ gut geht, er aber ärztlich überwacht werden muss. Das ist das zweite Standbein im Arbeitsalltag.

Werden Telenotärzte speziell ausgebildet?
Als Grundqualifikation müssen Ärzte, die Telenotarzt werden wollen, mindestens zwei Jahre als Notarzt im Rettungsdienst gearbeitet und in dieser Zeit mindestens 500 Einsätze absolviert haben. Zudem müssen sie noch weitere Zusatzqualifikationen mitbringen. Sind diese Voraussetzungen erfüllt, werden sie von uns in einer einwöchigen Schulung im Umgang mit dem Telenotarztsystem geschult. Wir unterrichten die technischen Aspekte, vor allem aber auch die Kommunikationsstrukturen und die Besonderheiten eines Tele-Einsatzes. Wir simulieren Einsätze und streuen bewusst Fehler ein, um das Fehlermanagement in kritischen Situationen zu testen. Danach werden die angehenden Telenotärzte unter der Supervision eines erfahrenen Telenotarztes durch reale Einsätze geführt.

Erhalten auch die Sanitäter eine Einweisung?
Ja, wir schulen auch das Rettungspersonal. Wir bieten achtstündige Kurse an, in denen es um die Handhabung des Systems geht. Aber eigentlich müssen wir da gar nicht so viel erklären. Man muss als Rettungssanitäter praktisch nur einen Kopf drücken und dann wird das Gespräch aufgebaut und die Daten des Patienten werden vollautomatisch übertragen. Das System funktioniert so einfach und intuitiv, dass man seinen Arbeitsablauf überhaupt nicht unterbrechen muss. Aber es ist schon so, dass wir die Teams im Vorfeld schulen müssen, was die Kommunikationsstrukturen angeht. Stehe ich als Notarzt mit einem Team vor Ort, wird auch viel über Körpersprache vermittelt. Das ist in so einem Einsatz natürlich anders. Wenn ich vor Ort sehe, dass ein Patient in einem Straßengraben liegt, dann muss mir das keiner mehr sagen. Oder wenn viele Menschen um den Einsatzort drum herumstehen. Bei einem Telenotfalleinsatz müssen auch einfache Sache geschildert werden.

Welche technischen Geräte kommen für die Video- und Datenübertragung zum Einsatz? Und wie gehen Sie mit technischen Schwierigkeiten um, z. B. mit Funklöchern während der Fahrt?
Unsere Hardware ist eine Eigenentwicklung. Wir verwenden eine spezielle Kommunikationsbox (peeqBox®), die an das portable EKG-Gerät montiert ist. Diese Box überträgt Daten über alle zur Verfügung stehenden deutschen Mobilfunkbetreiber (Vodafone, Telekom, O2). Funklöcher sind für uns prinzipiell eigentlich nicht so das Problem. Nur während der Fahrt kann der Empfang machmal Schwierigkeiten bereiten. Deshalb rüsten wir die Rettungswagen mit entsprechenden Dachantennen aus. In den entlegensten Regionen kann es aber schon mal vorkommen, dass es mit dem Empfang hapert, weil es dort keine Funkmasten gibt. Dort funktioniert das System dann auch nicht. Aber es gibt nur sehr wenige dieser Orte.

Patienten müssen der Behandlung durch einen Telenotarzt zustimmen. Ist es schon mal vorgekommen, dass ein Patient die Behandlung abgelehnt hat? Was tun Sie dann?
Das gab es, aber sehr selten. In 8 von 10.000 Fällen hat ein Patient nein gesagt. Die Aufklärung wird in einer Notfallsituation sehr kurz gehalten, das ist auch juristisch in Ordnung so. Das Team sagt einfach: „Wir rufen jetzt einen Arzt an, der hilft uns bei Ihrer Behandlung. Sind Sie damit einverstanden? Ja oder nein?“. Die Patienten möchten eigentlich nur, dass Ihnen geholfen wird. Nur sehr, sehr selten sagt jemand so etwas wie: „Nein, das ist mir unheimlich, ich möchte mit einem richtigen Arzt sprechen“.

Inwiefern wird ihre Arbeit durch das Fernbehandlungsverbot für Ärzte eingeschränkt? Eine Patientenversorgung ausschließlich über Telekommunikationsmedien war lange Zeit unzulässig, auch wenn viele Landesärztekammern das Verbot inzwischen aufgeweicht haben …
Diese Frage haben wir uns zu Beginn der Entwicklung des Konzepts auch gestellt. Es ist jedoch so, dass wir zu keinem Zeitpunkt dem Fernbehandlungsverbot wirklich unterlagen. Wir haben Fachpersonal vor Ort, und wir sehen alles, was für die ärztliche Behandlung entscheidend ist. Selbst wenn wir den Patienten nicht real vor Augen haben, können wir auf das qualifizierte Gespräch mit qualifiziertem Personal vor Ort zurückgreifen. Hinzu kommt die Übertragung der Vitaldaten in Echtzeit. Bereits in der Forschungsphase haben wir uns durch mehrere Rechtsgutachten abgesichert. Juristisch sind wir zu behandeln wie ein Notarzt, der vor Ort wäre, egal um welche Fragestellung es sich erstmal handelt. Auch für die neue DSGVO der EU haben wir ein entsprechendes Datenschutzkonzept erarbeitet.

Ist das Telenotarztsystem nur eine Verlegenheitslösung für den Ärztemangel, um Geld zu sparen?
Nein, auf keinen Fall. Wir haben das auch bereits wissenschaftlich belegt, dass die Versorgung durch den Telenotarzt nicht schlechter wird. Er soll und wird auch nicht den klassischen Notarzt ersetzen, weil sie für schwere Erkrankungen doch noch das manuelle Geschick brauchen. Wir haben allerdings festgestellt, dass das Wissen des Notarztes oftmals entscheidend ist und das Rettungsdienstpersonal notfalls das Manuelle übernehmen kann. Das Telenotarztsystem ist ganz klar eine Ergänzung.

Verändern sich durch das Telenotfallsystem Rettungseinsätze noch auf andere Weise?
Primär wollten wir eigentlich nur den Rettungseinsatz selbst betreuen. Die Idee der telemedizinisch begleiteten Verlegungen ist in der Rettungsleitstelle selbst aufgekommen. Aber auch die medizinische Beratung der Leitstellenmitarbeiter ist hinzugekommen. Das sind natürlich keine Mediziner, d. h. die Menschen, die dort arbeiten, können nicht immer hundertprozentig einschätzen, was wirklich gebraucht wird. Wir können bei einem Anruf der 112 jetzt grundsätzlich mitentscheiden, was passieren muss, im Sinne einer Hilfestellung für die Disponenten. Es gab mal einen Fall, da hat eine Patientin ihre Früh- und Spät-Medikation verwechselt. Der Leitstellenmitarbeiter fragte sich: Muss ich da einen Rettungswagen hinschicken oder nicht? Er ist auf uns zugekommen, und wir haben dann mit dem Patienten gesprochen und so einen unnötigen Rettungseinsatz verhindert. Es sind also auch in der Leitstelle neue Synergien entstanden.

Die deutlichste Auswirkung ist allerdings, dass die nicht-ärztlichen Mitarbeiter, also die Notfallsanitäter und die Rettungsassistenten, viel eigenständiger geworden sind, weil wir als Telenotärzte darauf angewiesen sind, dass wir eine adäquate Übergabe bekommen und sie uns die Situation vor Ort genau schildern. Dazu müssen sie einschätzen können, welche akuten Beschwerden der Patient hat. Dadurch werden die Rettungskräfte vor Ort deutlich selbstständiger. Wir haben als fahrende Notärzte festgestellt, dass im Alltag die Behandlung besser von der Hand geht, weil die Rettungskräfte jetzt viel mehr Übung bei der eigenständigen Versorgung der Patienten haben.

Herr Hirsch, vielen Dank für das Gespräch.

Link zur Veröffentlichung

Digitale Zwillinge unserer Organe sollen uns vor Risiken und Nebenwirkungen bewahren (erschienen bei 1E9 am 16.01.2020)

Bild: Siemens Healthineers

Die Zukunft der Medizin ist individuell. Behandlungen sollen immer genauer auf einzelne Patienten angepasst werden, um Risiken und Nebenwirkungen zu vermeiden. Dafür braucht es in vielen Fällen Daten und die richtigen Algorithmen – und auch mal Konzepte, die bisher eher in der Autoindustrie oder dem Maschinenbau zum Einsatz kamen. Zum Beispiel: digitale Zwillinge.

Eigentlich sollte für Peter K. nach dem Einsetzen des Herzschrittmachers alles besser werden. Doch dann gab es Komplikationen, obwohl die Operation heute als Routine gilt. Eine Sonde ließ sich nicht richtig platzieren. Die OP zog sich fünf Stunden in die Länge und wurde schließlich ganz abgebrochen. So liest sich ein Erfahrungsbericht aus dem Forum der Deutschen Herzstiftung. Bei vielen Patienten lief alles reibungslos, doch immer wieder klagen welche über unerwartete Schmerzen, Schwindel oder drückende Kabel im Körper. Die Beispiele zeigen, dass selbst Standardeingriffe ganz anders laufen können als geplant.

Doch aus Sicht vieler Forscher könnte es eine Möglichkeit geben, die Risiken noch weiter zu verringern: Operationen und Behandlungen müssten einfach vorher geprobt werden – am individuellen Patienten, ohne ihm dabei Schmerzen oder Schaden zuzufügen. Die Probeläufe würden nämlich am Computer stattfinden – nicht an echten Organen, sondern an ihren datengestützten virtuellen Kopien, ihren „digitalen Zwillingen“. Die könnten beim Einsetzen einer Herzklappe genauso helfen wie bei der Verabreichung von Medikamenten. Der Haken an dem Konzept: Organe digital zu reproduzieren, ist ziemlich kompliziert.

Operationen könnten im Vorfeld getestet werden
Für Entwickler, die versuchen, eine organische Struktur wie das Herz möglichst realitätsnah am Computer nachzubilden, stellt sich zunächst eine entscheidende Frage: Was ist eigentlich ein Herz? Darauf gibt es verschiedene Antworten. Denn ein Herz ist vieles: ein Hohlmuskel mit einem komplexen Kammersystem, ein biochemisches Kraftwerk, das durch ein Erregungsleitungssystem gesteuert wird, und eine hochleistungsfähige Pumpe, in der Herzklappen wie Rückschlagventile arbeiten.

Mit all diesen Dimensionen eines Herzens sieht sich Tobias Heimann fast täglich konfrontiert. Er ist Leiter der Forschungsgruppe für Künstliche Intelligenz in der zentralen Technologieabteilung von Siemens Healthineers. Und er liefert Grundlagen für das Forschungsprojekt des Instituts für Cardiomyopathien in Heidelberg, das die Möglichkeiten eines digitalen Zwillings für die kardiale Resynchronisationstherapie auslotet. Vereinfacht gesagt: für die Therapie mit Herzschrittmachern. Die müssen eingesetzt werden, wenn ein Patient an einer chronischen Schwäche der Herzpumpe leidet und Medikamente nicht ausreichend wirken. Bei dem Eingriff werden Elektroden an den Herzkammern angebracht, die über ein Kabel mit einem Impulsgeber verbunden sind.

Wie entsteht ein virtuelles Herz?

Ein digitaler Zwilling zur Verbesserung einer Herzschrittmacherbehandlung ist allerdings nur dann von Nutzen, wenn in ihm neben der anatomischen Grundstruktur und der biophysikalischen Mechanik insbesondere das Erregungsleitungssystem des Herzens möglichst exakt – und vor allem individuell – nachgebildet sind. Dieses System besteht aus speziellen Herzmuskelzellen und leitet die elektrischen Signale weiter, die das Pumpen des Herzens regulieren.

„Wir haben immer ein grundsätzliches Modell, das die physikalischen Gegebenheiten abbildet. Diese sind seit langem bekannt. Mithilfe von Daten des Patienten, zum Beispiel aus dem EKG, bauen wir dann ein patientenspezifisches Modell“, erklärt Tobias Heimann von Siemens Healthineers. „Wir wissen also, wie das durchschnittliche Herz aussieht. Für die Praxis zählt aber das Individuum. Und für die Individualisierung des Modells nutzen wir Künstliche Intelligenz.“

Noch ist der digitale Zwilling des Herzens ein reines Forschungsprojekt – allerdings mit positiven Zukunftsaussichten. „Wir arbeiten schon seit gut zehn Jahren am digitalen Zwilling“, sagt Tobias Heimann. „Inzwischen sind wir soweit, dass wir sagen, wir betreiben nicht mehr nur Grundlagenentwicklung bei den Algorithmen, sondern wir wissen, dass es prinzipiell möglich ist, ein Herzmodell zu bauen.“ Für ihn und sein Team geht es jetzt darum, konkrete medizinische Fragestellungen zu evaluieren. „Wir versuchen beispielsweise herauszufinden, welche Teile eines Modells robust genug sind, um als eine neue Art von Biomarker verwendet werden zu können.“

Es muss also zunächst geklärt werden, für welchen Anwendungsfall ein Modell wirklich verlässliche Aussagen liefern kann. Lassen sich mit einem spezifischen Modell des Herzens tatsächlich die Risiken einer Operation vorhersagen? Oder lassen sich damit die Risiken einer medikamentösen Therapie besser einschätzen? Und welche Parameter-Daten-Kombination verspricht die zuverlässigste Vorhersage?

Auch Probleme von eher praktischer Natur müssen geklärt werden, bis es zu einem klinischen Einsatz kommt. „Damit ein Verfahren in der Klinik akzeptiert wird, muss es innerhalb einer bestimmten Zeit ablaufen“, sagt Heimann. Sprich: Es darf nicht zu lange dauern, soviel Zeit haben Krankenhäuser und Ärzte nämlich nicht. „Und dann gilt es natürlich noch, das Produkt in klinischen Studien zu validieren und letztlich die verschiedenen Freigaben zu erhalten, um es als Produkt vermarkten zu können.“

Weltweit sind virtuelle Organe in Arbeit
International wird an vergleichbaren Konzepten der in silico Medizin gearbeitet, der Computermedizin. Das seit 2014 existierende Living Heart Project um den französischen Softwarehersteller Dassault Systems gilt als der erste geglückte Versuch, das Herz in Form eines Vier-Kammer-Modells zu simulieren. Inzwischen sind knapp 100 Akteure weltweit aus Forschung, Industrie, klinischer Praxis und Regulierung an dem Projekt beteiligt. Es hat zahlreiche Studien hervorgebracht, unter anderem zur präziseren Vorhersage von Arrhythmien, also Herzrhythmusstörungen, zur Vorhersage der potenziell lebensgefährlichen Torsade-Tachykardie , einer besonderen Form des Herzrasens oder auch zur Vorhersage eines diastolischen und systolischen Herzversagens , also eines Herzversagens in der Entspannungs- oder in der Kontraktionsphase.
The Heart of the Future – Dassault Systèmes

Forscher der Eidgenössischen Materialprüfungs- und Forschungsanstalt in der Schweiz arbeiten derzeit an einem digitalen Zwilling für die Haut . Der Hintergrund: Schmerzmittel, Insulin oder auch andere Wirkstoffe sollen in Zukunft auch über spezielle Membranen, zum Beispiel über ein smartes transdermales Pflaster , verabreicht werden. Das hätte Vorteile für Patienten und Ärzte.

Patienten müssten sich keine komplizierten Medikamentenpläne merken, weil die Wirkstoffe automatisch verabreicht werden. Das könnte sogar Leben retten. Denn die falsch dosierte – oder ganz vergessene – Einnahme von Medikamenten kann, gerade im Alter , ein hohes Gesundheitsrisiko darstellen. Bei Diabetes-Patienten soll auf diese Weise auch das lästige Spritzen wegfallen.

Ärzte wiederum können mit dem digitalen Zwilling verfolgen und vorhersagen, wie ein Medikament beim Patienten eigentlich anschlägt. Denn das smarte Pflaster misst über Sensoren spezifische Veränderungen der Haut, die zum Beispiel etwas über die Wirkstoffaufnahme verraten, und füttert mit diesen Daten den digitalen Zwilling. Ergebnisse können damit langfristig ausgewertet werden und Dosierungen entsprechende nachjustiert werden. Die Software für einen solchen digitalen Zwilling soll sich etwa in einer Smartwatch verstecken lassen.

Auch an der virtuellen Leber wird bereits geforscht. Am Max-Planck-Institut für molekulare Zellbiologie und Genetik in Dresden wollen die Forscher durch eine exakte Simulation des Gallenflusses die Nebenwirkungen von Medikamenten besser vorhersagen können.

Auch wenn es sich bei vielen digitalen Zwillingen in der Medizin noch um Forschungsprojekte handelt, sind sie längst keine rein theoretischen Konstrukte mehr. In anderen Branchen sind sie sogar schon im Einsatz. Siemens setzt bei der Digitalisierung der eigenen Produktionsanlagen auf digitale Zwillinge, aber auch beim Design von Gasturbinen oder der Softwarentwicklung . Digitale Zwilling sind so individuell wie die Anwendungsszenarien, für die sie eingesetzt werden könnten. Die meisten davon dürften allerdings weniger komplex sein als die mathematische Modellierung eines Herzens – eine echte Mammutaufgabe. Doch sie könnte sich lohnen. Schließlich klingt Tobias Heimann auch nach zehn Jahren Forschungsarbeit noch zuversichtlich.

Infokasten:
Digitale Zwillinge
Ein digitaler Zwilling ist die virtuelle Repräsentation eines „realen“ Objekts auf der Basis von Daten. Digitale Zwillinge bestehen oft aus mehr oder weniger komplexen mathematischen Modellen, die der Abbildung und Simulation verschiedenster Eigenschaften des Ausgangsgegenstandes dienen. Sie kommen nicht nur in der Medizin zur Anwendung, sondern beispielsweise auch in der Automobil- oder Luftfahrtbranche zum Einsatz. Dort helfen sie etwa bei der Entwicklung neuer Modelle, um die aerodynamischen Eigenschaften oder auch die Stabilität einer Konstruktion frühzeitig zu testen.

Sie unterscheiden sich von herkömmlichen 3D-Modellen durch ihre hohe Dynamik und die Vielzahl der Parameter, die sich mit ihnen durchspielen lassen. Entscheidend ist am Ende, dass das Modell für den jeweiligen Anwendungsfall möglichst realistische Einschätzungen liefert, wodurch sich Risiken vermeiden lassen und oft auch Geld gespart werden kann.

Link zur Veröffentlichung

„Wir gestalten die Systeme so, dass sie dem Arzt nicht vorgeben, was er machen muss“ (erschienen bei Healthcare Computing am 15.01.20)

Bild: ICCAS

Der intelligente Operationssaal der Zukunft soll Ärzte dort unterstützten, wo sie am meisten von intelligenter Technologie profitieren. Ein Gespräch mit Prof. Dr. Thomas Neumuth vom Innovation Center Computer Assisted Surgery der Universität Leipzig über schlaue Geräte, die über Leben und Tod mitentscheiden.

Herr Neumuth, wie smart sollte es in einem OP-Saal zugehen?
Die Entwicklung wird momentan so vorangetrieben, dass die Technologie erkennt, was ein Arzt machen möchte, um ihn dabei optimal zu unterstützen. Wir reden nicht von Robotern, die selbstständige Entscheidungen treffen, wir reden über Szenarien, in denen der Arzt weiterhin die volle Kontrolle hat und selbst entscheidet, aber sich die Tools ändern. Der Arzt schneidet zum Beispiel nicht mehr mit einem Skalpell, sondern er benutzt einen Telemanipulator. Das sind keine Roboter, die selbstständige Programmabläufe durchführen wie in der Industrie. Landläufig werden sie aber halt doch Roboter genannt. Dabei steuert der Arzt mit einem Controller in der Hand aus der Ferne die einzelnen Arme des Telemanipulators. Das ist ein bisschen wie beim Spielen mit der Playstation.

Welche Vorteile hat das für Arzt und Patient?
Das Arbeiten wird viel präziser. Ein Arzt, der mit seinem Skalpell schneidet, kann dabei nur eine bestimmte räumliche Auflösung erreichen. Wenn Sie mal einen Stift zur Hand nehmen und damit einen geraden Strich ziehen, dann wird der Strich auf ein, zwei Millimeter vielleicht relativ gerade ausfallen, er hat aber auch eine gewisse Dicke. Mit einem Roboter können Sie das viel präziser einstellen und einen solchen Strich im Submillimeterbereich ziehen. Dabei können Sie auch die zu bearbeitende Struktur heranzoomen. Die Bewegungen des Chirurgen werden vom Roboter millimetergenau übersetzt. Auch das allgemeine Zittern in den Händen wird durch die Technik kompensiert. Das funktioniert so ähnlich wie bei einer kardanischen Aufhängung, einem Gimbal, zum Ausgleichen von Verwacklungen bei Bildaufnahmen mit dem Handy. Das System rechnet die unbeabsichtigten Bewegungen des Chirurgen einfach raus.

Und die Nachteile?
Ein Nachteil eines solchen Systems ist der große Platzbedarf. Es sind Motoren im Einsatz, das System muss stabil stehen und dazu brauchen Sie zum Beispiel einen großen Standfuß. Die Systeme verfügen zudem über mindestens drei Arme. Zwei Arme halten die Instrumente, der dritte die Kamera. Bei einem Da-Vinci-Operationssystem kommen sogar vier Arme zum Einsatz. Die Arme müssen so koordiniert werden, dass Sie mit ihrer Spitze im OP-Gebiet arbeiten können. Der Platzbedarf ist ein grundlegender Faktor für den Einsatz dieser Systeme.

Wo werden solche Systeme derzeit in erster Linie eingesetzt?
In der Urologie sind diese Systeme schon weit verbreitet. Da sind die Operationsergebnisse mindestens gleichwertig zu den Ergebnissen der Chirurgen, insbesondere was Präzision und Geschwindigkeit angeht. Ein Großteil der Entwicklungen hat die Phase der wissenschaftlichen Forschung verlassen und die Technologien werden am Patienten eingesetzt. Derzeit sind weltweit mehrere tausend Systeme im Einsatz, insbesondere in den USA.

Welche konkreten Szenarien erproben Sie an Ihrem Institut?
Bei uns im Institut setzen wir auf die Vernetzung verschiedener Geräte. Aus der Kombination der Einzelsignale, die von den Geräten kommen, erkennt das System die Situation. Zum Beispiel wird – vereinfacht formuliert – bei einem Endoskop die Position im Raum verfolgt. Sobald sich das Gerät in der Nähe des ebenfalls technisch überwachten Patienten befindet, schaltet sich das Endoskop ein. Ein Endoskop in der Nähe des Patienten ist also für uns ein guter Hinweis darauf, dass es gleich benutzt wird.

Oder das OP-Besteck wird auf einer Waage gelagert. Weil die Instrumente unterschiedlich groß und schwer sind, lässt sich daraus ableiten, dass zum Beispiel gerade das Skalpell verwendet wird. Und weil bestimmte Instrumente nur für einen bestimmten Arbeitsschritt eingesetzt werden, weiß man dann schon relativ genau, wo sich der Chirurg innerhalb des Arbeitsflusses befindet.

Beim Fräsen oder Absaugen lassen sich auch Daten von den Geräten abgreifen, zum Beispiel Drücke oder Drehzahlen. Wir verfolgen auch die Instrumente und die Blickrichtung des Chirurgen, um zu erfassen, wo seine Aufmerksamkeit liegt. Aus der intelligenten Kombination der Einzelinformationen kann man dann auf den Arbeitsschritt schließen. Dabei gilt für uns immer: Wir gestalten die Systeme so, dass sie dem Arzt nicht vorgeben, was er machen muss.

Das ist wie bei einem GPS-System im Auto. Das erkennt, wo Sie gerade sind und spielt Ihnen Informationen zu, schreibt ihnen aber nicht vor, auf welcher Straße Sie zu fahren haben. Der Chirurg trifft seine Entscheidungen auf der Basis seines klinischen Wissens und das System folgt ihm.

Welcher Aspekt der Digitalisierung kommt einem Chirurgen im OP dabei besonders zugute?
Wir bezeichnen das Feld als Workflow-Management. Workflow ist der Arbeitsfluss des Arztes am Patienten. Management bedeutet, dass wir diesen Arbeitsfluss unterstützen. Das Praktizieren von Medizin ist heute ja ohne Technologie gar nicht mehr möglich, egal ob Sie operieren, überwachen oder auch einfach nur dokumentieren.

Die verwendeten Systeme sind aber alle spezialisiert für einzelne Funktionen und für einzelne Arbeitsschritte. Darunter fallen zum Beispiel Sicherheits- und Lokalisierungssysteme, die dem Arzt oder der Ärztin sagen, wo er oder sie sich gerade innerhalb des Patientenkörpers befindet oder ihn oder sie darauf aufmerksam macht, dass möglicherweise Gefäße oder Nervenbahnen verletzt werden können. Das hat dazu geführt, dass in einem OP-Saal inzwischen sehr viel Technik rumsteht, diese Systeme aber nicht miteinander integriert sind. Wenn ein Arzt diese Systeme verwenden will, muss er sie entsprechend vor- und nachbereiten. Die Vorbereitung der Systeme hat mittlerweile einen so hohen Anteil am Workflow des Arztes, dass es unserer Meinung nach sinnvoll ist, die Technologie so intelligent zu machen, dass die Technologie automatisch vorbereitet wird, dadurch die Vorbereitungszeit durch die Mitarbeiter wegfällt und der Arzt sich auf seine wertschöpfenden Arbeitsschritte konzentrieren kann.

Und Vernetzung ist dabei das zentrale Problem?
Ja, die Chirurgen können nicht selbst direkt über ein Netzwerk auf die notwendigen Geräte zugreifen, weil die Geräte von unterschiedlichen Herstellern stammen, nicht „dieselbe Sprache“ sprechen und somit nicht untereinander kommunizieren können. Weil das so ist, können wir dem Chirurgen auch kein Gerät anbieten, von dem er aus zentral alles selbst regeln kann, zum Beispiel über einen sterilen Touchscreen, mit dem er in der einen Situation Gerät A steuert und im nächsten Schritt Gerät B. So etwas funktioniert noch nicht, da die notwendige Interoperabilität fehlt. Im OP kann eine effiziente Bedienung auch eine Frage der Sterilität sein.

Sie haben ein Eye-Tracking-System mitentwickelt, dass dieses Problem vorläufig lösen soll …
Ja, ein solches System ist eine Möglichkeit die Distanz wischen Chirurg und Gerät zu überbrücken. Sie könnten zum Beispiel auch eine Spracherkennung einbauen, damit der Chirurg verbal seine Einstellungen steuern kann. Allerdings ist es in einem OP oft ziemlich laut, auch weil dort viele Menschen arbeiten, das funktioniert nicht wirklich gut. Deswegen haben wir ein System entwickelt, bei dem der Chirurg durch die rein visuelle Fokussierung eines Bedienelements auf einem Display zum Beispiel technische Parameter anpassen kann.

Was sind die besonderen Anforderungen an die Sicherheit von Computersystemen in medizinischen Umgebungen, zumal in einem so sensiblen Umfeld wie einem Operationssaal?
Das Worst-Case-Szenario der Medizin ist, dass eine Nachricht, die von einem System zu einem anderen System geschickt wird, unterwegs verändert wird – ob bewusst oder unbewusst. Es kommt nicht das an, was abgeschickt wurde. Stellen Sie sich vor, der Blutdruck eines Patienten wird überwacht und es kommt nicht der richtige Wert an.

Zweiter wichtiger Punkt ist, dass eine Nachricht, die ein System empfängt, auch richtig verstanden wird. Leider fehlen oft noch die technischen Standards. In einzelnen Bereichen gibt es bereits herstellerübergreifende Standards, etwa den DICOM-Standard zur Übertragung und Speicherung radiologischer Bilddaten. Ein CT-Bild, das beispielsweise mit einem Siemens-Computertomographen aufgenommen wurde, verfügt auf der Arbeitsstation eines anderen Herstellers, auf der es vom Radiologen begutachtet wird, über exakt dieselben Grauwerte. Eine Struktur oder Läsion, auf die der Radiologe achten muss, ist mit einer Veränderung der Grauwerte verbunden. Da wäre es natürlich fatal, wenn auf dem Monitor farblich etwas anderes dargestellt wird, als es dem eigentlichen Messwert entspricht. Dafür gibt es einen Standard.

Wo beginnt eigentlich die computergestützte Chirurgie? Erst am OP-Tisch oder auch schon bei der Vor- und Nachbereitung einer Operation?
Auch für Vor- und Nachbereitung der OP gibt es Systeme. In der Neurochirurgie ist es beispielsweise wichtig, den richtigen Zugangsweg zu wählen, beispielsweise um zum Tumor in der Mitte des Gehirns zu gelangen. Das ist keine spontane Entscheidung des Arztes, wenn der Schädel schon offen ist, sondern eine Frage der Planung. Wie lassen sich Schäden vermeiden? Wo entsteht der geringste Schaden, wenn es nicht anders geht? Dazu nimmt man radiologische Bilder als Grundlage und berechnet daraus dreidimensionale Modelle, zum Beispiel durch 3D-Volumen-Rekonstruktion. Den entsprechenden Hirnregionen werden dann die spezifischen Funktionalitäten wie Sprache, Erinnerung, Motorik usw. zugeordnet.

Und nach der OP?
Postoperativ spielt – vermeintlich banal – die Dokumentation eine große Rolle, als Grundlage für die Abrechnung. Wie lange hat die OP gedauert? Gab es Probleme? Die Dokumentation ist vielen Chirurgen ein Dorn im Auge. Wenn wir Chirurgen fragen, was an ihrem Arbeitsablauf im OP besser werden soll, dann wird fast immer zuerst die Dokumentation genannt.

Nach dem Stand der Technik wäre das auch eigentlich nicht mehr notwendig. Wären alle Systeme vernetzt, könnte die Dokumentation automatisch im Hintergrund ablaufen. Aus der Tatsache, wann welches System verwendet wird, kann eine KI zum Beispiel ableiten, welcher Arbeitsschritt gerade läuft. Dann wird im Hintergrund einfach das Protokoll geschrieben. Am Ende der OP müsste der Chirurg dann nur nochmal kurz auf das Protokoll schauen und unterschreiben. Fertig. Das wird sich definitiv ändern. Auch weil viele Chirurgen die Dokumentation erst am Ende eines langen Arbeitstags erledigen. Die Detailtiefe ist da mitunter verbesserungswürdig.

Besteht die Gefahr, dass sich Operateure zu sehr auf die Technik verlassen?
Ganz grundsätzlich ist das ein Problem, allerdings lässt sich mit verschiedenen Strategien gegensteuern, zum Beispiel präoperativ, indem einem System gesagt wird, dass an einer bestimmten Stelle in keinem Fall geschnitten werden darf, das System eine Position also gar nicht erst ansteuert. Oder, falls ein System doch mal etwas tut, was es eigentlich nicht tun soll, der Arzt einen „roten Knopf“ drücken kann, der das System komplett ausschaltet und der Chirurg von Hand weiter machen kann.

Der OP-Saal der Zukunft in 10 Jahren sieht also wie aus?
Das Computersystem um den Chirurgen ist so intelligent, dass es erkennt, was der Arzt gerade macht und was er als Nächstes tun will. Der Arzt operiert, ohne irgendwelche Knöpfe zu drücken, ohne irgendwelche Geräte ein- oder auszuschalten. Die Technologie liefert ihm alle Informationen genau zum richtigen Zeitpunkt. Der Arzt folgt seinem Arbeitsfluss, ohne dass er irgendwelche abweichenden Tätigkeiten machen muss.

Herr Neumuth, vielen Dank für das Gespräch.

Link zur Veröffentlichung

Das passiert, wenn wir unsere Daten mit allen teilen (erschienen bei Perspective Daily am 17.12.20)

Bild: cis

»Wenn alle mehr Informationen haben, kann das die Welt besser machen.« Das ist die Idee von Open Data. 5 Beispiele, wo das tatsächlich geklappt hat.

Ob wir es merken oder nicht, wir sind heute umgeben von Daten – und das nicht nur in Form der sprichwörtlichen Cloud. Und überall hinterlassen wir Spuren: natürlich beim Surfen im Netz, aber auch in der vermeintlich rein analogen Welt, also beim Laufen durch die Stadt (mit Google Maps) oder vielleicht auch beim Bezahlen unserer Bus- und Bahntickets. Welche Daten im Hintergrund einer App oder auch eines Automaten erhoben werden, weiß man heutzutage nie ganz genau. Denn wer liest schon ellenlange AGB?

Mit diesen privaten Daten lässt sich oft viel Geld verdienen. Deshalb gibt es gute Gründe, sie zu schützen.

Doch nicht alle Daten sind privat und schützenswert. Und genau hier greift eine ganz andere Idee: Nämlich öffentliche Daten möglichst vielen Menschen zugänglich zu machen. Klingt abwegig? Ist es nicht!

Diese Bewegung will Daten teilen
Die Idee von »Open Data« ist einfach erklärt: Die allerorten entstehenden Daten sollen möglichst vielen Menschen zugutekommen, um daraus zu lernen und so die Gesellschaft insgesamt voranzubringen.1 Das ist die Idee der Open-Data-Bewegung. Sie sucht nach Daten, die allgemein nützlich sind, etwa zur Luftqualität, zum örtlichen Verkehrsaufkommen, zur Anzahl der städtischen Wi-Fi-Hotspots, zur Anzahl der behördlich erstellten Bußgeldbescheide, oder auch Daten zu medizinischen Forschungsergebnissen.

An vielen Orten haben Befürworter des Konzepts schon begonnen, Daten zentral zu sammeln und sie als »offene Daten« frei verfügbar zu machen. Das zentrale Portal für offene deutsche Behördendaten ist etwa GovData. Im Open Data Atlas sind zahlreiche Open-Data-Portale in Deutschland, Österreich und der Schweiz verzeichnet, und auch im Rest Europas will man vorne mit dabei sein.

Noch nicht überzeugt? An diesen 5 einfachen Beispielen kannst du sehen, welchen Vorteil offene Daten für den Alltag bringen können.

In die Küche deines (Noch-)Lieblingsitalieners spicken: Auf dem Teller angekommen, sieht die Lieblingspizza meist ziemlich lecker aus. Doch bis dahin ist es oft ein weiter Weg, bei dem manchmal nicht klar ist, unter welchen Bedingungen deine Pizza entstanden ist. Beim Thema Lebensmittelsicherheit und Hygiene redet der Staat ein gehöriges Wörtchen mit und wirft bei unangekündigten Lebensmittelkontrollen in Restaurants gern mal einen kritischen Blick auf und unter den Pizzaboden. Doch von den Ergebnissen erfährst du normalerweise nichts 2 Genau hier setzt das seit Anfang 2019 laufende Open-Data-Projekt TopfSecret an, eine Kooperation von FragDenStaat und Foodwatch. Sie tragen die Ergebnisse der Überprüfungen von Lokalen auf einer Deutschlandkarte online ein – böse Überraschungen leider nicht ausgeschlossen.

Über die Umwelt lernen und dabei die Forschung unterstützen:
Umweltverschmutzung und Klimawandel sind große Themen, die sich manchmal auch im Kleinen praktisch erfahren lassen. Mit der SenseBox des Forschungs- und Schülerlabors des Institutes für Geoinformatik der Westfälischen Wilhelms-Universität Münster kannst du dir deine eigene kleine Wetter- und Sensorstation basteln und deine Daten auf einer Karte anderen Usern oder auch der Forschung zur Verfügung stellen. Werde selbst zum Datenproduzenten und teile der Welt mit, wie die Witterungsbedingungen vor deiner Haustür aussehen. Und wer sich mit dem ganzen Technikkram noch nicht so auskennt, der erlernt beim Skripten der Datenauswertung gleichzeitig grundlegende Programmierfähigkeiten für das neue Digitalzeitalter – alles pädagogisch wertvoll und durchaus unterhaltsam.

Wissen, was in der Stadtpolitik wirklich los ist: Keine Lust auf die Selbstbeweihräucherung des Bürgermeisters in der Lokalpresse? Dann schau doch einfach selbst nach, wie hart umkämpft das Abstimmungsergebnis im Gemeinderat tatsächlich war und was bei der entscheidenden Abstimmungsrunde wirklich den Ausschlag bei der Wahl gegeben hat. In den Ratsinformationssystemen von Städten und Gemeinden sind viele Beschlussvorlagen, Anträge und Stellungnahmen öffentlich zugänglich. Doch nur die wenigsten Bürger finden den Weg dorthin und wühlen sich nach Feierabend durch Akten. In München haben 3 Mitglieder der Open Knowledge Foundation Deutschland e. V. sich daran gemacht, den Papierdschungel optisch aufzupeppen und so für mehr Zugänglichkeit zu sorgen. Demokratie lebt schließlich von Transparenz und Mitmachen.

Sich in Berlin wie ein Einheimischer zurechtfinden: Beim Wochenendtrip nach Berlin ist viel geboten – so viel, dass man manchmal den Überblick verliert, wohin es eigentlich gehen soll. Wo gibt es hier den nächsten schönen See? Und wie komme ich am schnellsten dorthin? Die Website naturtrip.org kombiniert offene Karten-, Orts- und Verkehrsinformationen in und um Berlin so geschickt, dass du Ausflüge über eine einfache Benutzeroberfläche mühelos planen kannst. Eine Routenplaner-Software zeigt nur die Orte, die auch gut mit den öffentlichen Verkehrsmitteln zu erreichen sind, und weist den Weg minutengenau aus.

Barrierefreiheit durch Open Data: Eine Reiseplanung für Sehbehinderte. Die App Blindsquare gehört zu den beliebtesten digitalen Orientierungshilfen für sehbehinderte Menschen. Auf Basis von GPS-Daten, den Ortsinformationen der unabhängigen Standortplattform Foursquare und offenem Kartenmaterial aus OpenStreetMap lotst dich die App sprachgestützt sicher durch eine neue Umgebung. Und mithilfe der Foursquare-Community lassen sich diese Informationen beständig erweitern.

Offene Daten teilen: Immer eine gute Idee?

Open Data kommt langsam aus der Nische, weil es sinnvoll ist, bestimmte Daten zu teilen. Das hat beispielsweise auch die Deutsche Bahn verstanden. Sie möchte die eigenen Bahnhöfe barrierefreier machen und speist neuerdings den Wartungszustand ihrer Aufzüge in die App DB Bahnhof live ein. Auch hat sie ein eigenes Portal für offene Daten ins Leben gerufen.

Doch was ist, wenn die offenen Daten nicht freiwillig zur Verfügung gestellt wurden?

Das am 7. November 2019 beschlossene Digitale-Versorgung-Gesetz etwa sieht die Weitergabe der Gesundheitsdaten aller gesetzlichen Krankenversicherten für wissenschaftliche Forschungszwecke vor – wenn auch in anonymisierter Form. Formaljuristisch ist das wohl okay. Aber ist das auch richtig?

Diskutiere mit uns im Forum darüber!


1: Also sollten alle privaten Daten geschützt werden und alle öffentlichen allen zur Verfügung stehen? Nicht ganz, denn auch manche nichtprivaten Daten sollten nicht unbedingt geteilt werden. Welche das sind, will die Open-Data-Bewegung klären.
2: Es sei denn, du fragst im Rahmen des Verbraucherinformationsgesetz die Daten der letzten beiden Lebensmittelberichte bei den zuständigen Behörden selbst ab. Denn seit 2012 müssen Bürgern eindeutige Verstöße gegen die Lebensmittelhygiene offengelegt werden.

Link zur Veröffentlichung

Dr. Google, Dr. Apple und Dr. Amazon wollen den Gesundheitsmarkt erobern (erschienen bei 1E9 am 10.12.2019)

Bild: created by macrovector – www.freepik.com

Wer Daten und digitale Angebote beherrscht, beherrscht auch den Gesundheitsmarkt der Zukunft. Darauf setzen die großen Tech-Konzerne. Wir erklären die Gesundheitspläne von Google, Apple, Amazon & Co. – und die der deutschen Regierung. Am Ende müssen wir uns fragen, wem wir unsere Daten geben wollen.

Bald können Ärzte ihren Patienten Gesundheits-Apps verschreiben, die von der Krankenkasse gezahlt werden. Und noch viel wichtiger: Genauso bald werden die elektronischen Gesundheitsdaten von 73 Millionen gesetzlich Krankenversicherten in Deutschland weitergegeben – zum Wohle der Forschung und ohne, dass dafür das Einverständnis der Betroffenen gebraucht wird. So wollte es Jens Spahn, CDU, der Bundesgesundheitsminister. Der Bundestag stimmte zu.

Am 7. November 2019 verabschiedete das Parlament ein Gesetz mit dem etwas sperrigen Namen Digitale-Versorgung-Gesetz. Das sieht vor, dass die Daten der Patienten in pseudonymisierter Form an eine zentrale Vertrauensstelle beim Bund der Krankenkassen übermittelt werden. Von dort aus wandern sie an ein „Forschungsdatenzentrum“, wo sie aufbereitet und auf Antrag für Forscher freigegeben werden.

An den Plänen gab es schon im Vorfeld viel Kritik – wegen der fehlenden Widerspruchsmöglichkeit, des mangelnden Schutzes der Daten oder der Gefahr einer sozialen Schieflage. Auch aus der Opposition im Bundestag kamen Zweifel an den Plänen des Ministers auf. Auf die reagierte er so:

„Wenn Google in diesen Tagen Fitbit kauft, dann höre ich von Ihnen nichts. Nichts! Amerikanische Großkonzerne kaufen nach und nach die Gesundheitsdaten der Bürgerinnen und Bürger. (…) Wenn es um Großkonzerne geht, die Geld machen, dann höre ich von Ihnen nichts.“

Unabhängig davon, ob die Vorwürfe von Jens Spahn in Richtung der Opposition richtig sind oder nicht: Ein Punkt trifft auf jeden Fall zu. Amerikanische Großkonzerne häufen seit Jahren Gesundheitsdaten an – für neue digitale Angebote, für Finanzprodukte oder zum Trainieren von Künstlicher Intelligenz. Es winkt ein gigantischer Markt. Und wir zeigen, wie Google, Apple, Amazon und andere schon heute in diesen Vordringen.

Google & Alphabet: Von der intelligenten Windel bis zum Fitnessarmband
Wie man mit neuen Technologien die Gesundheitsbranche aufmischen kann, überlegen sich Google und seine Muttergesellschaft Alphabet schon seit einigen Jahren. Im Konzern ersann man bereits eine Kontaktlinse, die den Blutzuckerspiegel messen soll – musste die Idee aber dann wieder verwerfen. Bei der Google-Schwesterfirma Calico sucht ein Forscherkollektiv nach Möglichkeiten, den menschlichen Alterungsprozess aufzuhalten. Und der Futurist Ray Kurzweil, der als Director of Engineering für Google arbeitet, kann sich Nanoroboter vorstellen, die durch die Blutbahn kreisen und Krankheitserreger identifizieren.

Doch damit endet der Streifzug durch die Gesundheitsprojekte von Google – besser gesagt: des Mutterkonzerns Alphabet – noch lange nicht.

Insbesondere der Ende 2015 gegründete Life-Sciences-Ableger Verily baute sein Portfolio sukzessive aus. Verily entwickelt intelligente Sensoren zur Erkennung von Vorhofflimmern und zur nicht-invasiven Messung des Blutzuckerspiegels. Die Firma bastelt an einer intelligenten Windel und forscht in Kooperation mit Pharmaunternehmen an bioelektronischen Implantaten 2, die Nervenimpulse abgreifen und auswerten sollen. Außerdem werden Machine-Learning-Algorithmen von Verily für die Erkennung spezifischer Krankheiten und Biomarker trainiert, zum Beispiel zur Vorbeugung koronarer Herzkrankheiten oder zur Synthese neuer Nanopartikel.

Mit der Plattform Project Baseline will Verily eine Art private Version von Jens Spahns Forschungsdatenzentrum etablieren – für Patienten, die bereit sind ihre Daten zu spenden, für Forscher, Kliniken. Auch die kalifornischen Medizin-Startups Freenome und Ciitizen arbeiten mit dem Geld von Verily. Freenome entwickelt ein Verfahren, um herkömmliche Blutproben mittels KI zu untersuchen, um eine mögliche Krebserkrankung zu erkennen. Ciitizen arbeitet an einer persönlichen Gesundheitsakte.

Schon 2016 kam heraus, dass die Alphabet-KI-Tochter DeepMind, die ebenfalls an der Früherkennung von Krebs und anderen Erkrankungen arbeitet, eine Vereinbarung mit dem britischen National Health Service getroffen hatte – für den Zugriff auf 1,6 Millionen Patientendaten. Einen ähnlichen Deal fädelte Google 2017 mit dem University of Chicago Medical Center ein. Und vor wenigen Tagen wurde bekannt, dass Google im Rahmen der Initiative Project Nightingale Gesundheitsinformationen des größten amerikanischen Non-Profit-Gesundheitsdienstleisters Ascension auswerten kann. Es geht um die Daten von Millionen von US-Bürgern. Unter anderem sollen Laborergebnisse, Diagnosen und individuelle Krankheitsverläufe in die Google Cloud wandern.

2,1 Milliarden US-Dollar ließ sich Google nun die von Jens Spahn erwähnte Übernahme von Fitbit kosten, einem der profiliertesten Hersteller von Fitness-Armbändern, der auch Smartwachtes im Angebot hat. Und das obwohl Fitbit eigentlich in der Krise steckt. Die Vermutung liegt daher nahe, dass es Google nicht um schnellen Profit geht, sondern auch um wertvolle Nutzerdaten, die die Voraussetzung für neue Health-Angebote sind. Schließlich sammeln Fitness-Tracker und Smartwatches die Gesundheitsdaten direkt am Handgelenk. Mit Google Fit verfügt Google zudem bereits über eine Consumer-Gesundheitsplattform, auch der Google Assistant hat Gesundheitsfunktionen im Programm.

Apple: Das EKG in der Apple Watch
Google verfolgt spätestens mit der Fitbit-Übernahme einen ähnlichen Ansatz wie Apple. Für den Tech-Konzern bildet die Apple Watch einen zentralen Baustein der eigenen Consumer-Health-Strategie ist.

Seit Version 4 der Apple Watch, die im September 2018 erschienen ist, liest die Uhr ein 1-Kanal-EKG vom Handgelenk ab. Die Aufzeichnung ist zwar nicht gleichzusetzen mit einem „klassischen“ 12-Kanal-EKG im Rahmen einer ärztlichen Untersuchung. Mit ihr lassen sich aber trotzdem Herzfrequenz und Herzrhythmus bestimmen. Das wiederum lässt Rückschlüsse auf ein mögliches Vorhofflimmern zu. Im Rahmen einer groß angelegten Studie mit 400.000 Teilnehmern konnte die Uhr dann tatsächlich Fälle identifizieren, die später von Medizinern bestätigt wurden. Mit dem in diesem Jahr erschienenen Betriebssystem watchOS 6 führte Apple eine Reihe neuer Gesundheitsfunktionen ein, auch neue Studien sind geplant.

Als zentraler Hub für die Zusammenführung aller Gesundheitsdaten auf dem iPhone dient die Health-App. Schon jetzt zählt die App automatisch die Schritte des Users, zeichnet automatisch die Aktivitätsdaten der Apple Watch auf und ist auch für die Integration mit anderen Gesundheits-Apps ausgelegt. Auch für Apples Gesundheitsstrategie gilt also: Ohne Daten der Nutzer geht kaum etwas.

Seit dem Frühjahr 2018 betreibt Apple außerdem eigene Kliniken für seine Mitarbeiter. Und ähnlich wie die Google-Schwesterfirma Verily mit dem Project Baseline, will auch Apple Forschern und Entwicklern dabei helfen, im Rahmen von Studien die Gesundheitsdaten von Teilnehmern zu sammeln. Dafür stellt der iPhone-Hersteller ein Research Kit zur Verfügung.

Amazon könnte Alexa ins Krankenhaus schicken
Schließlich ist auch Amazon bereits in den Gesundheitsmarkt eingestiegen. Wie bei Apple wird auch hier die eigene Belegschaft aktiviert, um Erfahrungen zu sammeln. Mit Amazon Care profitieren die Mitarbeiter des Tech-Giganten in den USA von außerstaatlichen Gesundheitsdienstleistungen in Form einer persönlichen medizinische Betreuung per App. Ärzte können per Video konsultiert und Pflegefachkräfte per Chat zu Gesundheitsthemen befragt werden. Mobile Experten kommen auch persönlich im Büro oder zuhause vorbei, um einzelne Untersuchungen oder Maßnahmen durchzuführen. Näher dran am Kerngeschäft: Medikamente lassen sich per App an die eigene Haustür liefern. Kein Wunder: Vor gut einem Jahr erwarb Amazon die Online-Apotheke PillPack.

Mit Haven Healthcare, einem Joint Venture mit JPMorgan Chase und Berkshire Hathaway, tritt das Unternehmen inzwischen praktisch als Krankenversicherung der Zukunft auf – die sich zunächst nur an die eigenen Mitarbeiter richtet. Kritiker sehen darin einen Überwachungs-Alptraum. Auch das Klinik-Umfeld ist für Amazon interessant. Mit dem Machine-Learning-Tool Amazon Comprehend Medical will Amazon in Zukunft unstrukturierte Patientendaten aus Patientenakten auslesen und daraus medizinische relevante Informationen gewinnen.

Und natürlich spielt auch Alexa eine Rolle. Der Sprachassistent wurde in den USA bereits für die rechtskonforme Übertragung von Gesundheitsdaten wie der Abfrage von Untersuchungswerten fit gemacht und könnte theoretisch schon bald neben jedem Krankenbett stehen, um das Gesundheitspersonal zu entlasten.

Auch Facebook, Microsoft und viele Start-ups mischen mit
Facebook und Microsoft haben ebenfalls bereits mehrere Gesundheitsanwendungen entwickelt. Neue Facebook-Tools sollen zur Blutspende motivieren oder an rechtzeitige Vorsorgeuntersuchungen erinnern. Microsoft geht mit KI- und Cloud-Software-Tools ins Rennen.

Konkurrenz könnten Google, Apple, Amazon & Co. außerdem von hochspezialisierten Gesundheits-Start-ups bekommen, die weltweit entstehen. Ihre Lösungen greifen oft dort an, wo das klassische Gesundheitswesen bisher versagt. Hier sollen stellvertretend nur drei Beispiele genannt werden.

In den USA hat sich Livongo auf die Therapiebegleitung chronischer Krankheiten spezialisiert. Patienten sollen mithilfe personalisierter KI-Modelle, die medizinische Krankheitsindikatoren im Alltag überwachen, so unterschiedliche chronische Leiden wie Diabetes, Bluthochdruck oder auch Übergewicht besser in den Griff bekommen.

In Deutschland will das Unternehmen Telepark Patienten mit fortgeschrittener Parkinson-Erkrankung über einen Tele-Dienst enger, aber ortsunabhängig mit Ärzten vernetzen, um ihnen ein selbstbestimmteres Leben zu ermöglichen. Dazu werden, zum Beispiel, über einen Strumpf kontinuierlich Daten zur Ganganalyse erhoben. Alzheimer-Datenstudien will das Gesundheits-Startup neotiv aus Magdeburg auf den Weg bringen. So soll auf der Basis von neu entwickelten kognitiven Tests, die spezielle Hirnregionen zum Speichern von Erinnerungen abfragen, die Krankheit langfristig früher erkannt und besser überwacht werden können.

Der Erfolg für die Tech-Konzerne ist nicht vorprogrammiert
Am Ende wird sich der Erfolg von vielen dieser Innovationen nur einstellen, wenn viele Menschen auf Dauer bereit sind, privaten Unternehmen Ihre Gesundheitsdaten zu geben. Selbstverständlich ist das nicht, das mussten selbst zwei der größten Tech-Konzerne bereits feststellen.

Google Health, die seit 2006 entwickelte elektronische Gesundheitsakte von Google, die nur im englischsprachigen Raum verfügbar war, wurde zum im Januar 2012 eingestellt. Auf ihr konnten medizinische Untersuchungsdaten erfasst und ausgewertet werden, zum Beispiel, um vor Wechselwirkungen von Medikamenten oder Allergien zu warnen. Auch Microsoft versuchte sich seit 2007 an einer digitalen Gesundheitsakte, in der Nutzer ihre medizinischen Daten sammeln konnten. Vor wenigen Wochen, am 20. November 2019, wurde HealthVault dann offiziell eingestellt.

Der Misserfolg dieser Projekte könnte darin begründet sein, dass sie nicht allzu viel Mehrwert lieferten. Doch wie werden sich die Nutzer verhalten, wenn sich das bei zukünftigen Apps und Diensten ändert? Vielleicht geben die Nutzer in Deutschland ja nur einer Stelle ihre Daten: dem Forschungsdatenzentrum von Jens Spahn. Weil sie gar nicht anders können.

Link zur Veröffentlichung

Wenn der Doktor Apps verschreibt (erschienen in EHealthCom 06/2019)

Bild: Barmer

Die App auf Rezept steht dank dem Digitale Versorgung Gesetz (DVG) kurz vor der Tür. Wie wird mit dem Einzug der digitalen Helfer das Verhältnis von Arzt und Patient in Zukunft aussehen? Und welche Folgen hat das für unser Gesundheitssystem? Ein Gespräch mit Dr. Regina Vetters, Leiterin digitale Produktentwicklung (Barmer.i) bei der Barmer.

Frau Vetters, Sie haben ein Pilotprojekt ins Leben gerufen, in dem Hausärzte in der Region Cottbus Gesundheits-Apps empfehlen.
Genau, und die Idee kommt gut an. Mittlerweile nehmen bereits gut 200 Hausärzte teil. Das Projekt wurde inzwischen um die Bundesländer Berlin, Brandenburg, Thüringen und die Region rund um Darmstadt erweitert.

Zwölf Apps wurden in das Programm aufgenommen, mit dem Behandlungsspektrum Rückenschmerzen, chronische und allgemeine Schmerzen, Stress, Diabetes, Ernährung, Schwindel, Reiseschutz und Hausmittel. Nach welchen Kriterien haben Sie eine Entscheidung getroffen?
Das sind alles Themenfelder, die sich die Ärzte selbst ausgesucht haben. Wir haben zuvor mit vielen Ärzten Gespräche geführt, um herauszufinden, was sie wirklich brauchen. Daraus konnten wir die Themenfelder ermitteln, die die Ärzte in der Praxis am meisten unterstützen. Es gab noch weitere Vorschläge, von denen wir uns vorstellen können, unser Programm entsprechend zu erweitern. Denkbar wären zum Beispiel Apps für das Nichtraucher-Training oder Apps für junge Eltern. Aber das ist jetzt erst einmal unser Startportfolio für das Hausärzteprojekt.

Was ist das genaue Ziel des Projekts?
Wir wollen eine Brücke schlagen, denn es gibt nach wie vor zwei Welten, die nicht immer richtig zusammenpassen. Ich meine die traditionelle Versorgung auf der einen und das digitale Angebot auf der anderen. Zu uns kommen Start-ups mit tollen digitalen Produkten. Doch das reicht nicht. Es müssen entscheidende Fragen geklärt werden. Habt ihr schon einmal mit einem Arzt über euer Produkt gesprochen? Passt das eigentlich in einen Behandlungspfad? Zu uns kommen auch Vertreter von Krankenhäusern und andere Leistungserbringer mit selbst entwickelten Apps. Doch hier stellen sich die Fragen der Bedienbarkeit. Will der Patient das wirklich nutzen? Nach meiner Erfahrung zeigt sich häufig, dass jeder nur sein Feld im Blick hat. Als Barmer können wir da viel Know-how einbringen und diese Welten zusammenführen. Lassen Sie mich kurz erklären, warum uns das so wichtig ist. Wir haben festgestellt, dass Patienten mit chronischen Erkrankungen Gesundheits-Apps viel adhärenter nutzen, wenn der Gebrauch durch den Hausarzt unterstützt wird. Das ist die erste vorsichtige Evidenz bei der Nutzung von Digitalprodukten.

Aufgrund dieser Erfahrung ist es wichtig, die Ärzteseite noch mehr einzubeziehen. Bei den meisten Ärzten schlägt das Thema ohnehin auf. Die Patienten bringen Fragen zu bestimmten Gesundheits-Apps mit in die Praxis, aber die Ärzte fühlen sich häufig unsicher. Welche Apps soll ich denn empfehlen? Ich weiß gar nicht, was gut und was schlecht ist, dabei würde ich mich gerne mit meinen Patienten darüber unterhalten können! Die Ärzte wünschen sich also mehr Informationen. Weil wir in den letzten Jahren mit gut 500 Start-ups gesprochen und gelernt haben, die Spreu vom Weizen zu trennen, können wir helfen und diese Brücke schlagen.

Allzu viele Widerstände hatten Sie also nicht zu überwinden …
Unsere Anfangshypothese war, dass die Ärzte erstmal skeptisch sind. Natürlich gibt es auch Ärzte, die sagen: Gesundheits-Apps sind nichts für mich. Aber wir wurden positiv überrascht. Die meisten waren dem Thema gegenüber sehr aufgeschlossen. Es gab eher eine Unsicherheit im Umgang mit Gesundheits-Apps, die sie hat skeptisch werden lassen. Aber das hat sich nach dem Ausprobieren gegeben, so dass die Rückmeldungen später dann oft auch sehr positiv waren. Viele fanden die Apps einfach und verständlich und fühlten sich dann auch sicher genug, sie Ihren Patienten zu erklären.

Von wem geht die Initiative zur Nutzung von Gesundheits-Apps denn in Regel aus?
Wir haben als Barmer zwei Dutzend Versorgungs-Apps, die wir anbieten. Diese werden sehr unterschiedlich genutzt. Manche im großen Stil, andere eher zurückhaltend. Das hängt von der Zielgruppe ab, manchmal auch von der Indikation. Aber Apps sind bei vielen Menschen schon eine selbstverständliche Beschäftigung. Allerdings sind das in erster Linie noch Fitness- oder Bewegungs-Tracker, indem sie zum Beispiel die täglich zurückgelegten Schritte zählen oder den Herzrhythmus erfassen. Damit kann der Arzt zunächst einmal nichts anfangen. Es braucht einen klaren Fokus bei der Nutzung von Apps.

Der da wäre?
Unsere beliebtesten Apps im Projekt sind zwei Apps zum Training gegen Rückenschmerzen. Wenn ein Patient mit Rückenproblemen Tipps vom Arzt gegen seine Beschwerden haben möchte, muss dieser erstmal ein oder zwei Übungen erklären. Das kann er aber in der Regel in den acht Minuten, die er für ein Patientengespräch hat, nicht intensiv machen. Dank der Rücken-Apps kann er jetzt sagen: Hier können Sie sich die Übungen nochmal genauer ansehen. Früher gab es dafür einen Zettel. Die App kann es jedoch viel intensiver zeigen und Informationen zu Entspannungsübungen und zur häufig stressbedingten Entstehung von Rückenschmerz liefern. Die App ist die verlängerte Erklärung des Arztes, die man mit nach Hause nehmen kann. Es kommt ja immer wieder vor, dass ein Arzt etwas erklärt, und wenn der Patient zu Hause angekommen ist, weiß er nur noch eine der drei Übungen.

Die App erhält also durch die Einbettung in ein medizinisches Versorgungskonzept einen zusätzlichen Mehrwert …
So ist es, und das führt auch dazu, dass die Patienten die Apps länger benutzen. Es gibt natürlich Menschen, die das auch ohne ärztliche Betreuung machen. Die Apps kann sich ja jeder einfach runterladen. Aber wir sehen in diesen Fällen häufig, dass deren Nutzung nach sechs Wochen wieder weniger wird. Das ist vergleichbar mit dem Phänomen, dass viele zum Jahreswechsel ins Fitnessstudio gehen, fest entschlossen, regelmäßig zu trainieren, aber die Motivation spätestens im März wieder nachlässt. Dann ist das Fitnessstudio wieder deutlich leerer. Das gibt es bei Gesundheits-Apps natürlich auch. Doch ein Arzt ist hier eine wichtige Kontrollinstanz. Beim nächsten Besuch fragt er konkret nach den bereits erzielten Erfolgen. Die Kombination aus normaler Therapie und digitaler Unterstützung ist häufig sehr viel stärker als das reine Produkt.

Sehen Sie Fitness-Apps und -Tracker als Einstieg in die Welt der Gesundheits-Apps?
Fitness-Tracker an sich sind keine medizinischen Produkte, sondern nur eine Art, sich überhaupt mit dem Thema Gesundheit zu beschäftigen. Bei den Trackern geht es in erster Linie um das Festlegen der Anzahl der Schritte, die man pro Tag zurücklegen möchte. Das ist aber nicht die Art von Produkt, die wir vergüten und die wir in unserem Portfolio haben. Hinter der Rückschmerz-App KAIA stehen zum Beispiel richtige Mediziner. Es handelt sich dabei um eine Übertragung eines auch in der analogen Welt existierenden Konzepts zur Bekämpfung von Rückenschmerzen. Zentral war die Frage: „Was will der Hausarzt?“ Schwindel und Hausmittel sind in den Praxen zum Beispiel häufig Thema, da haben die Hausärzte explizit nach Unterstützung gefragt.

Vielen Herstellern von Gesundheits-Apps wird ein unseriöser Umgang mit den sehr sensiblen Gesundheitsdaten vorgeworfen. Wie stehen Sie dazu?
Datenschutz und Datensicherheit sind immer ein ganz zentrales Thema. Unsere Anforderungen daran sind sehr hoch. Erst wenn alle Fragen dazu mit den Herstellern entsprechend geklärt sind, können wir die Apps vergüten. Dazu gehören Fragen wie: Gibt es ein Datenschutzsiegel? War der Datenschutzbeauftragte eingebunden? Wo werden die Daten gespeichert?

Sind Sie mit den aktuellen Formulierungen im Digitale Versorgung Gesetz im Großen und Ganzen glücklich? Bei Preisfindung und Evidenzkriterien wurden die Zügel für die Hersteller ja gelockert, um Innovation zu befördern …

Generell begrüßen wir das Digitale Versorgung Gesetz (DVG), weil der Gesetzgeber hier einen Weg für Innovationen schafft, den es bislang so nicht gibt. Die bisherigen Wege in die Regelversorgung werden den digitalen Produkten so nicht gerecht. Unsere eigenen Vergütungsmöglichkeiten sind sehr begrenzt, und nach SGB V lässt sich meist schlecht argumentieren, um eine Gesundheits-App zu bezahlen. Das DVG öffnet ein Fenster für Innovation und gibt digitalen Produkten eine breitere Bühne. Das ist aber noch nicht der Stein der Weisen. Wir werden das in den nächsten Jahren eng begleiten. Idealerweise werden die Evidenzanforderungen nachträglich wieder hochgezogen. Wenn die Apps erprobt wurden, gibt es eigentlich keinen Grund, längerfristig niedrigere Evidenzkriterien als für pharmazeutische oder medizinische Produkte anzulegen. Nur kommen die Apps eben aus kleinen Unternehmen, die nicht durch drei verschiedene Phasen klinischer Studien gehen können. Die Produkte haben viel kürzere Lebens- und Entwicklungszyklen. Man wird sich dann auch überlegen müssen, wie man mit Nachahmerprodukten umgeht.

Ist die digitale Erwartungshaltung an Gesundheit eine Betreuung rund um die Uhr?
Schon heute gibt es Formen des Telemonitorings, beispielsweise, um kritische Gesundheitszustände in der Entstehung zu erkennen und zu vermeiden. Wir haben eine zehnjährige Studie mit der Charité zu Herzpatienten gemacht und festgestellt, dass eine digitale Rund-um-die-Uhr-Betreuung medizinisch sinnvoll ist, wenn die Patienten stark eingeschränkt sind. Hier ist es gut, ihren Gesundheitszustand mittels Telemonitoring dauerhaft zu kontrollieren und im Bedarfsfall umgehend reagieren zu können.

Bedarf es ein zusätzliches Maß an Aufklärung über digitale Medizinprodukte?
Die Digitalkompetenz muss natürlich auch im medizinischen Bereich zunehmen, und zwar an verschiedenen Stellen. Zunächst einmal gilt es, die Anwender digitaler Medizinprodukte zu informieren. Das sind in erster Linie nicht die technikaffinen Millennials, sondern eher ältere Menschen. Bei diesen besteht natürlich eine Unsicherheit. An dieser Stelle besitzt das DVG auch eine Stärke, weil es besagt, dass die App vom Arzt verschrieben werden und im Idealfall auch von ihm nochmal erklärt werden muss. Dafür muss aber auch der Arzt aufgeklärt werden. Da sind auch die Programmierer der Apps in der Verantwortung. Wenn zum Beispiel ein Patient eine App zur Feststellung von Medikamentenwechselwirkungen im Rahmen einer Therapie verwendet, sich über die Arztanweisung hinwegsetzt und ein Medikament absetzt, könnte das nachteilige Folgen haben. Ein entsprechender Hinweis, nochmal mit dem Arzt zu sprechen, muss daher eingebaut sein, anstelle von prozentualen Risikowahrscheinlichkeiten oder gar starren Handlungsanweisungen. Andererseits ist es auch nicht zweckmäßig, wenn die Menschen zu sensibel anspringen und bei jedem Hinweis der App sofort zum Arzt rennen. Da muss die Balance noch austariert werden.

Apps für Diagnose und Therapie werden vom DVG weitestgehend nicht berücksichtigt. Halten Sie das für ein Problem?
Auch für den Gesetzgeber sind Apps für die Diagnose und Therapie ein Stück weit Neuland. Deshalb entwickelt er Stück für Stück die Rahmenbedingungen und spricht hier gerne von „agiler Gesetzgebung“. Es ist natürlich einfacher, mit Apps erst einmal in den Bereichen Erfahrungen zu sammeln, in denen das Risiko weniger groß ist. Danach kann man die nächsten Schritte nachziehen. Am Anfang ist es sinnvoll, die Schotten nicht ganz aufzumachen und alles reinzulassen. Umgekehrt lässt sich der Filter später vergrößern für noch stärkere medizinische Produkte, in der Digital-Health-Szene spricht man von sogenannter „Serious Medicine“. Aber hier ist größere Vorsicht geboten. Denn wenn es bei einem digitalen Medizinprodukt Probleme gibt, kann dies das Vertrauen der Nutzer in die Digitalisierung schnell und nachhaltig erschüttern. Daher bauen wir Apps für die Diagnose und Therapie doch lieber langsam auf.

Frau Vetters, vielen Dank für das Gespräch.

Link zur Veröffentlichung