10 Jahre Medizininformatik-Initiative, Digital Health Innovation Forum und AnoMed 2
Shownotes
Die vierte Ausgabe des Digital-Health-Podcasts von heise online gibt Einblicke in drei Veranstaltungen: Ein Symposium zu 10 Jahren Medizininformatik-Initiative, das Digital Health Innovation Forum des Hasso-Plattner-Instituts und eine Veranstaltung von AnoMed 2 zur sicheren Lagerung und Verarbeitung von Gesundheitsdaten.
- 10 Jahre Medizininformatik-Initiative: "Vernetzte Struktur statt Flickenteppich"
- Medizininformatik-Initiative: Vom Aufbau zur Nutzung realer Gesundheitsdaten
- Patientenvertreterin auf HPI-Veranstaltung: "Wo sind die Daten? Wo ist die KI?"
- Rechtsunsicherheit kostet Ideen: BfDI will mit ReguLab gegensteuern
- Gehirn-Computer-Schnittstellen: Zwischen Durchbruch und ethischem Dilemma
- Kostenfalle Krankenhaus-IT: Wie Epic und Co. Milliarden binden
- Sicherer Umgang mit medizinischen Daten: AnoMed geht in die zweite Runde
Transkript anzeigen
00:00:01: Willkommen beim
00:00:02: Digital
00:00:03: Health Podcast von
00:00:04: Heise Online.
00:00:05: Hier geht es um die Digitalisierung im Gesundheitswesen, von Apps und Medizintechnik bis hin zur Gesundheitspolitik.
00:00:13: Für alle wissen wollen wie sich das Gesundheitswesend digital verändert.
00:00:18: Hallo ich bin Marie-Claire Koch Redakteurin für digitale Gesundheitsthemen bei Heise online und in dieser Folge nehme ich euch auf drei Veranstaltungen mit.
00:00:26: Ende März war ich beim Jubiläum der Medizininformatikinitiative kurz MEI in Berlin, dann beim Digital Health Innovation Forum am Hasso-Platner-Institut in Potsdam und schließlich beim Auftakt von Anome II.
00:00:37: Das ist ein Forschungsprojekt zur Anonymisierung und sicheren Nutzung von Gesundheitsdaten.
00:00:41: Es wurde sehr deutlich dass es jetzt nicht mehr nur darum geht Daten überhaupt zu erfassen, zu standardisieren und zu vernetzen sondern noch mehr darum wie aus Gesundheitsdate tatsächlicher Nutzen für Forschung und Versorgung werden kann.
00:00:52: Seit Jahren wird dieser Umbau unter anderem von der Medizininformat Informatikinitiative begleitet.
00:00:57: Es sollen Daten aus der Routineversorgung digital und sicher für die medizinische Versorgung
00:01:01: bereitstehen.".
00:01:02: Das Ziel ist, Krankheiten besser vorbeugen erkennen und behandeln.
00:01:06: Vieles davon ist jetzt schon möglich aber so lautet der Konsens – wir sind gerade erst am Anfang und es geht noch viel mehr!
00:01:12: Vor allem steckt dahinter die große Hoffnung, die Gesundheitsversorgungen zu retten in einer Zeit, in der der wirtschaftliche Druck immer weiter zunimmt.
00:01:19: Als vor zehn Jahren die Medizininformatik-Initiative entstand war Eine fragmentierte Gesundheitsdatenlandschaft, viele Insellösungen unterschiedliche Systeme und kaum Möglichkeiten Daten übergreifend für Forschung und Versorgung zu nutzen.
00:01:34: Zehn Jahre später – nach tausend Arbeitsgruppensitzungen hat sich viel getan!
00:01:38: Aus einem Pflegenteppich ist eine sichere vernetzte Struktur geworden.
00:01:41: So beschreibt es Sebastian Claudius Semmler Geschäftsführer der Technologie- und Methodenplattform für die Vernetzte Medizinische Forschung kurz TMF.
00:01:50: Gemeinsam mit der Medizin Informatik-Initiative haben sie unter anderem das vom Forschungsministerium unterstützte Forschungsdatenportal Gesundheit aufgebaut, dank dem Daten sicher zur Verfügung stehen sollen.
00:02:00: Damit sei man gewappnet für den entstehenden europäischen Gesundheitsdatenraum und für die Hightech-Agenda des BMFTRs.
00:02:07: Wir haben eine Bundesweite für lebende Dateninfrastruktur geschaffen und Datenintegrationszentren, es ist jetzt an jeder Uni das Ziel zu tun in weiteren Partnerstandorten.
00:02:16: Es gibt
00:02:16: ein gemeinsames Kerndatentatz und einen ganz maßgeblichen Impuls zur Interpretation, weit über die medizininformale Initiative hinaus auch in dem Bereich der Gesundheitsversorgung.
00:02:27: nochmal von den fertigen Bergen, das wir damals ja mitten des Bundesministeriums für Forschung Stombe ZZ
00:02:32: nach Deutschland
00:02:33: geholt haben in der ersten Lizenz.
00:02:35: Das Feier heute vermutlich nicht in dem Maße auch im Versorgungsbereich gesetzt wäre, wenn es die MDI-Nichtige
00:02:41: gegeben hätte wie
00:02:42: Kismupolsogemälde und vieles Weitere.
00:02:44: Wir haben über medizinische
00:02:45: Usecases und Anwendungen mit
00:02:47: vielen fachlichen medizinischen Paar zusammen gearbeitet gerade auch wenn man nur dreidrückt.
00:02:53: Es gibt mit dem bundesweiten Broadcon, der breiten Einwilligung, mühsamst abgestimmt mit allen Datenschutzbehörden eine einigartensbasierte Rechtsgrundlage wie nun möglicherweise auch erweitert oder jetzt wird durch weitere rätzliche Regelungen zur Datennutzung.
00:03:08: Wir haben eine Rechtsfamilie, einen Governance für die Nutzungsprozess- und Datenzugangsprozesse, wir haben zentrale Elemente geschaffen hier ohne das Forschungsdaten totaler Gesundheit, FDPG, was hier vorgestellt wurde in den
00:03:20: nächsten Tagen.
00:03:23: zusammengearbeitet und Patienteninformationen geschaffen, ein zentrales Transparenzkontal und auch die Kooperation mit der Industrie vorangebracht.
00:03:32: Weiter erklärte er die Errungenschaft nach zehn Jahren MII.
00:03:35: Es geht an manchen Standorten auch schon weit zurück, dass diese Daten
00:03:53: auch
00:03:54: verfügbar sind.
00:03:56: Und das Schöne an der
00:04:04: Routine-Datel
00:04:07: ist auch, dass wir da
00:04:08: auch der befängstige
00:04:09: Gender Gap haben – also sofern es etwas, was wirklich auch für vielelei Forschung verwirkbar
00:04:14: ist.".
00:04:15: Gemeinsam mit der Medizin Informatikinitiative haben sie unter anderem das vom Bundesministerium für Forschung, Technologie und Raumfahrt, kurz BMFTR unterstützte Forschungsdatenportal Gesundheit aufgebaut.
00:04:27: Jetzt soll die Infrastruktur liefern.
00:04:30: Matthias Hauer, parlamentarischer Staatssekretär beim BMFTR sagte dazu ...
00:04:35: Wir haben Wissen,
00:04:36: da sind der
00:04:37: Großstoff der Zukunft.
00:04:39: dieser Satz
00:04:39: das aber nicht neu,
00:04:41: sondern er wurde schon vor
00:04:42: zehn Jahren
00:04:43: gesagt und da
00:04:44: haben sie gleich gehandelt.
00:04:46: Sie haben gezeigt
00:04:47: was möglich ist wenn Wissenschaft Versorgung
00:04:50: und Politik
00:04:51: gemeinsam
00:04:52: den digitalen Aufbruch wagen.
00:04:54: den Weg bereitet.
00:04:58: Deshalb können
00:04:58: wir heute feiern
00:04:59: und stolze zehn Jahre Medizin,
00:05:02: Informatikinitiative
00:05:04: und da darf ich im Namen des Registriers für
00:05:05: Forschung, Technologie
00:05:06: und Raumfahrt ganz herzlich
00:05:08: ein Glück wünschen
00:05:09: zu diesem tollen
00:05:10: beeindruckenden Jubiläum.
00:05:12: Und
00:05:12: besonders toll ist es natürlich
00:05:14: wenn das Geburtstag
00:05:14: aus Kind selbst
00:05:15: Geschenke mitbringt
00:05:16: wie zum Beispiel
00:05:17: kürzlich mehr als zwei Millionen Vitaldaten
00:05:21: aus der
00:05:21: Intensivmedizin.
00:05:23: Das ist beeindruckend.
00:05:24: und der Datenschatz
00:05:26: Wer wird immer größer?
00:05:27: Dank Ihnen.
00:05:29: Erfüllen uns
00:05:30: ruhig einmal
00:05:30: vor Augen, wie die Ausgangslagen waren damals vor zehn Jahren viele Einflugprojekte,
00:05:36: die Datenlandschaft
00:05:37: fragmentiert und
00:05:38: interrogieren.
00:05:40: Daraus diesen
00:05:41: flicken Teppich
00:05:42: muss sie eine
00:05:42: starke vernetzte Struktur
00:05:44: aufgebaut mit einheitlichem
00:05:46: Standards
00:05:47: oder mit Daten, die nun bundesweich
00:05:49: auswertbar
00:05:50: sind.
00:05:51: Die persönlichen Daten als anonyme Spende für die Forschung.
00:05:56: Über vierhundertfünfzig
00:05:57: Tausend Menschen waren dazu
00:05:59: schon bereit,
00:06:01: dass es ein Erfolg wäre nur
00:06:03: durch Vertrauen möglich ist.
00:06:05: Vertrauen, das Sie mit dem
00:06:07: Nordkonsens – wir haben's gerade schon gehört – geschaffen
00:06:09: haben.
00:06:09: Vertrauen ist dabei eines der Leitworte des Jubiläums.
00:06:13: Denn ohne Vertrauen funktioniert ein datengetriebenes Gesundheitssystem nicht!
00:06:17: Es gibt allerdings auch immer mehr Möglichkeiten und Konzepte datensicher zu nutzen, etwa dank verteilter Analysen.
00:06:23: Das zeigte zum Beispiel Professor Björn S. Coffier, Leiter des neuen Instituts für Künstliche Intelligenz in der Medizin an der Ludwig-Maxibilians Universität in München.
00:06:32: Ich habe jederzeit davon
00:06:33: von Wangen eher welche Draht
00:06:35: die Funde vorn gewendet hat.
00:06:36: Und da habe ich ein bisschen der
00:06:38: Überarztreiz sichererweise
00:06:41: auf Insignat
00:06:41: mitgegeben.
00:06:42: Außerdem betonte er
00:06:44: kein Algorithmenproblem in der medizin.
00:06:46: es gibt einen
00:06:49: Wie die sichere Nutzung aussehen könnte, zeigten auf dem Symposium gleich mehrere Projekte.
00:06:53: Das Projekt PMV Onco verknüpft Daten aus Tumor-Dokumentationen, molekularen Tumorborts, Pathologie und Patientenfragebögen.
00:07:02: Ziel ist es, Therapieentscheidungen besser auszuwerden und Standort übergreifen nutzbar zu machen.
00:07:07: Wichtig sei laut Professorin Melanie Börjes, Leiterin von PMV onko ...
00:07:13: ist immer der Patient im Mittelpunkt.
00:07:15: Es ist wirklich wichtig
00:07:16: für uns zu sagen,
00:07:17: warum machen wir das eigentlich?
00:07:18: Nicht nur um Daten zu strukturieren und alle
00:07:20: können sie nutzen, sondern es hat
00:07:21: mehr
00:07:21: Wert nachher auch für die Patienten.
00:07:23: Die Strukturen sollen so gebaut sein, dass sie klinische Entscheidungen tatsächlich unterstützen können.
00:07:28: Kritik kommt derweil von Dr.
00:07:30: Christian Müller vom Pharma-Konzern Bayer, der den nicht ganz so einfachen Zugang zu den Daten beim Forschungsdatenportal Gesundheit als nicht Kundenfreundlich bezeichnete.
00:07:40: Er stellte sich als Apotheker Jäger und Sammler von Daten bei Bayer vor.
00:07:44: Und er läuterte mit DataInside eine Studie, die Daten auf dem Forschungsdatenzentrum Gesundheit und dem Forschungstatenportal Gesundheit
00:07:51: gegenüberstellt.".
00:07:53: Müller sagte ausdrücklich...
00:08:10: Protokoll fertig hatten.
00:08:12: Im September haben wir es dann eingereicht und offiziell beim FTBG, das ist irgendwie im Dezember als solches als Antrag angekommen.
00:08:20: Dann hat es eine Weile gedauert bis ich die entsprechenden Zentren gemeldet habe.
00:08:24: Wir haben noch mal einen Fristverlennung von zwei Wochen nach hinterher geschoben und sind an den Punkt angekommen
00:08:30: dass
00:08:30: wir insgesamt siebzehn Zusagen haben, zwanzig Absagen und
00:08:35: vierzehntmal haben
00:08:35: sich einfach nicht gemeldeten.
00:08:37: Warum?
00:08:37: Das Portal wirke in der Praxis so, als ob jedes Zentrum versucht die eigenen Interessen durchzubekommen.
00:08:43: Das sei nicht wirklich nachvollziehbar und auch nicht wirklich kundenfreundlich.
00:08:47: Deutlich wurde der Druck Daten- und Anwendungen ins Gesundheitssystem zu bringen beim Digital Health Innovation Forum im Kino von Jennifer Kolczak.
00:08:55: Sie leitet die Digital Medicine Society eine US NGO, die den sinnvollen Einsatz digitaler Technologien in der Gesundheitsversorgung vorantreiben will.
00:09:04: Goldzegg sprach über ihre Krebserkrankung, die schlechte medizinische Versorgung in den USA und darüber wie wenig digital der Versorgungsalltag oft noch ist.
00:09:22: Wo sind die Daten?
00:09:23: Wo zur Hölle ist die KI?
00:09:25: Warum führen wir diese Daten nicht zusammen und nutzen sie?
00:09:28: Goalseq zeigte sich sehr wütend darüber, dass nicht alle relevanten Daten für die Behandlung verfügbar waren.
00:09:34: Über Daten- und Innovation habe ich auch mit Ariel Dora Stern gesprochen.
00:09:38: Sie ist Professorin for Digital Health Economics and Policy am Hassoplattner Institut.
00:09:42: Aus Ihrer Sicht steht Deutschland bei der Datennutzung noch am Anfang.
00:09:46: Wir
00:09:46: fangen tatsächlich erst jetzt an zu verstehen, welche Möglichkeiten wir haben weil wir in Deutschland so lange so wenig Zugang zu Daten gehabt haben dass es in vielen Fällen wirklich noch nicht vorstellbar ist was man dann machen kann wenn man richtig große Datenmengen hat.
00:10:04: nur das kleines Beispiel ich habe in den USA mit den Medicare-Abrechnungsdaten gearbeitet.
00:10:10: Das sind die Abrechnungstaten für alle Amerikaner über sixty fünf.
00:10:15: Das ist keine putzige Stichprobe, das sind Millionen von Menschen und dass man da neue Technologien anschauen kann.
00:10:23: Man kann dann verstehen in den Echtwelt-Daten, was funktioniert und unter welchen Bedingungen?
00:10:28: Und wir sind in Deutschland noch relativ weit davon entfernt.
00:10:31: Wir haben ein paar Settings, in denen das jetzt gerade erst machbar ist.
00:10:35: Auf
00:10:35: die Frage ob mit KI jetzt einfach irgendwelche Zusammenhänge gesucht werden, antwortete Stern Das ist
00:10:41: bisschen die Idee mit unserem Forum hier dass wir nicht nur wild mit Daten irgendwelches zusammenhänge entdecken sondern sehr interdisziplinär geschaut wird, also von Leuten die dann Ahnung haben vor der Regulatorik.
00:10:56: Von Medizinprodukten dass wir wirklich schauen welche Fragen sind sinnvoll?
00:11:01: Welche Fragen helfen uns das Gesundheitssystem besser zu machen neue Produkte auf dem Markt zu bringen neue Versorgungsmodelle auszutesten und wenn sie funktionieren zu adoptieren.
00:11:14: nur uns hier zu adoptiert nicht zu sagen jetzt machen wir Tele Monitoring für alle sondern wir machen Tele-Monitoring für die Patientengruppen, weil wir die Daten haben um zu verstehen dass es in den Fällen wirklich gut funktioniert.
00:11:27: Im weiterer Schwerpunkt bei Stollen war die Frage der Translation also wie gut Forschung tatsächlich die Menschen erreicht.
00:11:33: Auch hier ist klar, es gibt viel Wissen und Forschung, viele gute Ideen.
00:11:36: Aber zu wenig davon landet tatsächlich in der Versorgung.
00:11:40: Und damit isst man sofort bei der nächsten Hürde der Regulierung.
00:11:43: Regulierungen auf jeden Fall.
00:11:44: Wir brauchen auch eine Regulierungsregulierung die heute zutage Sinn macht.
00:11:47: Also das mit der Regulatorik egal in welchem Bereich also mit neuen Medizinprodukten vor allem haben wir eine Regulatorie vom letzten Jahrhundert geerbt die dann überhaupt nicht für unsere heutigen Technologien designt wurde.
00:12:01: Und dann kämpfen wir natürlich in der ganze Zeit, weil wir einen riesen Missmatch haben zwischen den Regeln, die wir irgendwie
00:12:10: haben,
00:12:11: die mit guten Intentionen übrigens damals geschrieben worden sind und die Sachen, wie wir heute machen wollen.
00:12:18: Die supergrundsätzliche Frage, die ich immer stelle ist, wie viel Mehrwert haben wir davon?
00:12:25: Wie sehen die Kosten aus und wie viel Mehrwert haben wir davon?
00:12:28: Und es ist trotz Kosten oder Kompromisse, es ist trotzdem besser diese Technologie zu haben ja-oder nein.
00:12:34: Und Algorithmen, die dann dem Gesundheitssystem sehr viel Geld sparen – das ist natürlich was ganz anderes als Algorithme, die nur etwas kosten!
00:12:42: Ich habe Stern auch gefragt, wie man Vertrauen herstellen kann.
00:12:45: Vertrauen
00:12:46: muss man für alle Parteien aufbauen.
00:12:49: Viele Lösungen, die wir im Gesundheitssystem sehen, sind gar nicht so komplex.
00:12:52: Die sind nicht in der Diagnostik oder in der Behandlung.
00:12:55: Sie sind in der Administration.
00:12:57: Wir machen Prozesse in der Klinik, in der Praxis schneller, effizienter und sauberer, dass Terminfindung nicht per Telefon stattfinden muss – also ganz banale Sachen aber super wichtige Sachen!
00:13:08: Da muss man auf jeden Fall zeigen.
00:13:11: das Tool
00:13:12: des Produktes hat mehr Wert spart Zeit führt zu einer besseren oder schnelleren Diagnose, was auch
00:13:18: immer.
00:13:18: Dörrn macht da auch deutlich dass sich die Perspektive von Patientinnen und Patienten längst verändert hat.
00:13:24: Patienten kommen dann in die Praxis mit Screenshots von ChatGPT.
00:13:28: Ich glaube ich habe die Diagnosis weil sie dann anders und anders informiert und mit anderen Beises dann erst mal überhaupt in die praxis kommen.
00:13:38: Und es ist eine super spannende Zeit.
00:13:40: aber einfach so weiter zu tun als ob das nicht der Fall ist ist auch keine nachhaltige Lösung.
00:13:46: Dass die US-Einwanderungsbehörde EIS versicherungsbezogene Gesundheitsdaten ausgewertet hat, um Menschen auswendig zu machen, verurteilt sie auf Nachfrage scharf.
00:13:54: Und das was in den USA passiert ist extrem krank teilweise sehr direkt.
00:14:02: aber die Lösung ist nicht zu sagen na gut dann profitieren wir nicht von unseren Daten sondern wie können wir die Daten schlauer und besser und sicherer?
00:14:13: speichern?
00:14:14: und dann in welchen Secure Processing Environments können wir diese Daten verarbeiten, damit wir trotzdem die Learnings mitnehmen können.
00:14:23: Wir wollen dass die guten Ideen aus den Unis heraus wachsen und Menschen erreichen.
00:14:28: Und irgendjemand muss das machen!
00:14:32: Ich bin Fan und ich profitiere sehr von der unabhängigen Forschung aber es ist tatsächlich der Fall, dass wir Ausgründungen brauchen dass wir eine Industrie brauchen, ob das eine Tech-Industrie ist.
00:14:45: Eine Pharmaindustrie, eine Medizinproduktindustrie, IT Hersteller als Industrie.
00:14:51: also wir brauchen Unternehmen, ob es Startups sind oder ob das
00:14:55: große
00:14:56: Player sind die dann die besten Ideen voranbringen und unterstützen und zu den Menschen bringen.
00:15:03: wie das auszusehen hat sollen wir uns richtig gut überlegen?
00:15:08: Also ich sage nicht, okay gut alles klar.
00:15:11: Aber wir sind die Patienten und Patientinnen in der Zukunft.
00:15:15: Wir sind die Menschen, die von einem besseren Gesundheitssystem übermorgen oder übernächstes Jahr oder im Jahr zwanzig achtunddreißig profitieren.
00:15:24: Wenn ich heute Brustkrebs bekommen würde, wäre ich sauer wenn ich keine KI-Unterstütze Diagnostik bekommen würde.
00:15:32: das wär Schlecht für mich, ich würde eine schlechtere Behandlung haben ohne KI.
00:15:37: Was ist dann fit for purpose in dem Fall?
00:15:40: Wer soll diese Technologie auf den Markt
00:15:42: bringen
00:15:43: und vorantreiben?
00:15:45: Manchmal ist es die Pharmaindustrie.
00:15:46: Die existiert bereits.
00:15:47: Die ist groß.
00:15:48: Die hat Geld.
00:15:48: Die kann klinische Studien finanzieren.
00:15:51: Das kann extrem hilfreich sein.
00:15:53: Manchmal nicht!
00:15:54: Es ist nicht schwarz-weiß.
00:15:56: Aber das was super wichtig ist, ist dass wir Translationen schaffen wo Europa wirklich relativ schwach ist im Vergleich mit den USA.
00:16:03: Wir haben richtig viele Patente, wir haben super top Forschung und wir schaffen es nicht aber Ideen aus dem Labor heraus in die Praxis also auszugrunden und dann in die praxis reinzubringen und das ist schlecht für alle.
00:16:17: Ein offenes Geheimnis auf dem Forum.
00:16:19: SchattenKI ist längst Alltag, nicht nur Stern.
00:16:23: auch ein Krankenkassenvertreter betonte das KI bereits eingesetzt wird ob reguliert oder nicht.
00:16:28: In einem weiteren Vortrag bat die Bundesdatenschutzbeauftragte Krankenkasten konkrete Unterstützung an speziell beim Umgang mit versicherten Daten und KI – ein Angebot dass wohl nicht zufällig kam.
00:16:40: Und genauso wie letztes Jahr habe ich auch diesmal Dr.
00:16:43: Teresa Ahrens vom Fraunhofer Institut für experimentelles Software-Engineering getroffen, sie forscht genau an der Stelle wo aus Ideenprodukte werden sollen und ich wollte von ihr wissen wie Sie die Stimmung auf dem Forum einschätzt.
00:16:55: Ich hab das Gefühl da ist die Stimmung wieder sehr positiv ist genau wie letztes Jahr und ich habe den Eindruck dass noch mehr der Fokus gelegt wird auf warum machen wir Digitalisierung halt den Nutzen mehr in den Vordergrund zu stellen?
00:17:06: Und
00:17:06: aber auch, wie kommt man besser in die Umsetzung mit der Berücksichtigung und der Regulation?
00:17:12: Aus dem wollte ich von ihr noch wissen was ihre Sicht auf das Thema Regulierung ist.
00:17:17: Wir sind ja genau an der Schnittstelle von Forschung in den Industrietransfer.
00:17:22: Ich persönlich habe immer, glaube ich, ein bisschen so eine Einzelgänger-Meinigung.
00:17:24: Ich bin eigentlich ein großer Fan von Regulierungen.
00:17:27: Ich finde es gut dass Europa auch ein bisschen schärfer reguliert vielleicht als die USA weil ich glaube das das am Ende den Patientinnen mehr Sicherheit bietet in den Produkten und ist mir persönlich auch ein Anliegen deswegen.
00:17:39: für mich ist es eher der Umgang mit der Regulation.
00:17:44: Wir war an Regulationen, der schwierig zu verstehen ist.
00:17:46: Ich glaube es muss einfach verständlicher werden und damit leichter umsetzbar werden.
00:17:51: aber ich glaube dass die Regulation an
00:17:53: sich
00:17:53: nicht das Problem ist sondern
00:17:55: eigentlich eher
00:17:56: Teil einer Lösung weil da eben auch
00:17:58: Leitplanken
00:17:59: gibt für Produktsicherheit.
00:18:02: In fast allen Vorträgen ist das Thema Regulierung präsent.
00:18:06: In der Kino.
00:18:06: vom Pathologen-Professor Jochen Lennards ging es um das Thema Gehirncomputerschnittstellen, also Brain-Computerinterfaces kurz BCE.
00:18:14: Aktuell wird das wieder stark diskutiert auch aufgrund der Entwicklung bei NeurerLink.
00:18:19: Die BCIs von Elon Musk's Firma stecken inzwischen in Gehirnen von mehr als zwanzig Menschen.
00:18:24: Ende letzten Jahres hat UNESCO erstmals eine Empfehlung zur Ethik solcher Technologien veröffentlicht und auch den Deutschen Ethikrat beschäftigt das Thema.
00:18:32: In einer Anhörung haben Forscher vor Kurzem ein Moratorium für implantierbare BCIs außerhalb der Medizin gefordert, so lange bis deren Wirkung auf den menschlichen Geist hinreichend verstanden ist.
00:18:43: Die Hoffnung, die hinter der Technologie steckt, ist schon seit Jahren riesig und biblisch – gelehmte Menschen sollen sich wieder mehr bewegen können, blinde Seen
00:18:51: usw.,
00:18:51: Menschen, die vollständig in ihrem Körper eingeschlossen waren, können wieder kommunizieren, zumindest
00:18:56: eingeschränkt.".
00:18:57: Lennart hat das auf dem Forum eindrücklich beschrieben, aber auch gewarnt vor militärischen Szenarien, vor ungeklärten Datenschutzfragen und vor einer Gesellschaft die auf diese Technologie noch nicht vorbereitet ist.
00:19:08: Lennerts der aktuell beim Biotech-Unternehmen Boston Gene arbeitet konnte ich auch noch andere Fragen etwa zum Schutz von Gehirndaten stellen.
00:19:15: Klar es ist ein zentrales Thema.
00:19:17: Neurodaten unterscheiden sich in mehreren Punkten ganz klar.
00:19:22: für den klassischen medizinischen oder medizinische Geräte darbe Beispielsweise in EKG, fachlich interpretieren will erfordert das halt die gewisse fachliche Kompetenz.
00:19:34: Bei den Brain-Computerinterface Anwendungen muss man allerdings um die Primärdaten zu analysieren bereits auf KI Modelle zurückgreifen, die bestimmte Funktionen aus diesen neuronalen Signal extrahieren können.
00:19:48: Das heißt, diese neuronalen Signale können gar nicht von Menschen primär interpretiert werden.
00:19:53: Das heißt die Daten müssen aufgearbeitet werden und da verwendet man halt künstliche Intelligenz.
00:19:57: dazu aber enthalten allerdings die Rohdaten häufig deutlich mehr Informationen als für die jeweilige Anwendung in dem Moment genutzt wird.
00:20:06: das heißt es handelt sich hierbei nicht nur um Funktionsbezogene Datenstruktur, sondern häufig auch die latente Information.
00:20:16: Und das wirft dann natürlich Fragen zur Sekundärdatennutzung auf weil nicht immer klar ist welche Inhalte eigentlich potenziell aus den Daten abgeleitet werden können und im gewissen Sinne selbst wenn das intentionale Datensinn also überlegt sich für jetzt den Cursor bewegen könnte in diesen Daten weitere Sachen drinstecken.
00:20:34: Das heißt Das wäre, was kann eigentlich aus dem Daten abgeleitet werden?
00:20:38: Wenn man das nicht genau weiß ist es natürlich sehr schwierig zum Beispiel die Zeckbestimmungen sicherzustellen.
00:20:44: Weitere Aufmerkpunkt betrifft den Datenschutz neuronaler Daten über den Tod hinaus.
00:20:49: also Neurodaten sind logischerweise hochgradig Personen bezogen.
00:20:54: Also die KI-Modelle von denen ich eben gesprochen habe müssen quasi für jeden Patienten individuell auf den eigenen Neurodaten generiert und trainiert werden.
00:21:03: Und gleichzeitig enden aber klassische Persönlichkeitsrechte mit dem Tod, was dann zu ungeklärten Situationen führen kann – das man nämlich nach dem Tod eines Patienten zum Beispiel machen kann.
00:21:15: Also diese Fragen zeigen
00:21:17: z.B.,
00:21:17: dass hier jedenfalls Bedarf besteht frühzeitig geeignete Leitplanken des sogenannten Guardrails zu entwickeln, mit denen wir quasi die regulatorischen Rahmenbedingungen bestimmen um auf der einen Seite Innovation Benefit für die Patienten zu ermöglichen, ohne dabei aber unbeabsichtigt riesigen Umgang mit diesen sensiblen Daten zu schaffen.
00:21:39: Das heißt also hier sozusagen eine Balance zu finden – das ist momentan eine Aufgabe, die stellt auf jeden Fall eine der wesentlichen Herausforderungen im ersten Jahrhundert
00:21:49: da.
00:21:50: Skeptisch zeigte sich Lennards bei der Frage ob wir bald Gedanken lesen können?
00:21:53: Das hängt natürlich stark davon ab, was man unter Gedanken versteht.
00:21:56: Wenn man damit die komplexen inneren Zustände den Effekt oder Emotionen meint, dann wird das sicherlich auch einige Jahre dauern.
00:22:05: Wenn aber der Begriff jetzt funktionell definiert wird – also Beispiel ob mal eine Steuerung von einem Körser oder einer Tastatur oder einer Auswahlbewegungen -, dann sind derartige Anwendungen bereits heute möglich und sogar schon in der klinischen Testung.
00:22:20: Kurzum, dass das Prospektive oder zukünftige Potenzial der Technologie ist damit auf jeden Fall deutlich größer als der aktuelle Differenzierungsstand.
00:22:30: Aber wir befinden uns momentan noch in einer frühen
00:22:33: Entwicklungsphase.".
00:22:34: Ich habe Lennards auch gefragt ob er Einblick in Neuralink hat?
00:22:37: Also direkt ein Einblick an die internen Entwicklungen habe ich natürlich nicht!
00:22:40: Neuraling ist allerdings wie die anderen Industrieakteure Teil unserer Collaborative Community.
00:22:46: Das ist einen Zusammenschluss im präkemptiven Raum der auch unter anderem von der FDA anerkannt ist.
00:22:53: Interessant ist dabei, dass hier Wettbewerber zusammenkommen weil alle erkannt haben das bestimmt Herausforderungen gemeinsam leichter zu lösen sind als wenn jeder Akteur individuell vorgeht.
00:23:06: Dabei wird dann klar definiert welche Themen zum Beispiel in diesem Konsortium besprochen werden.
00:23:11: die Ergebnisse werden dann wissenschaftlich diskutiert und anschließend öffentlich zugängig gemacht.
00:23:16: Also in dem Fall werden Sie beispielsweise als Input für die Regulierungsbehörden, also wie zum Beispiel die FDA weitergegeben und stehen dann quasi als Inpult zur Verfügung.
00:23:27: Also in solchen sogenannten Collaborative-Communities arbeiten heute Industrie-, Wissenschaft-, Patientenvertreter oder Fachgesellschaften zusammen, die dann quasi frühzeitig solche evidenzbasierten Grundlagen für eine bessere Regulierung schaffen.
00:23:46: Und Ziel ist es dabei zu vermeiden, dass die regulatorischen Rahmenbedingungen geschaffen werden ohne ausreichenden Input der betroffenen Stakeholder zu haben.
00:23:54: Das heißt also diese Zusammenarbeit ist quasi in Neudeutsch Co-Creation bei dem man hofft das die Regulierung durch Input Der Betroffenenstakeholder angepasst wird.
00:24:05: Außerdem zeigte Landrats die Industrie und Forschung gemeinsam Lösungen entwickeln können.
00:24:11: Also in dem Zusammenhang helfen im Grunde zwei Konzepte, die sich sehr gut ergänzen.
00:24:16: Zum einen die regulatorische Wissenschaft also der Ansatz bei den wissenschaftliche Daten systematisch dazu genutzt werden um Regulierung, Evidence basiert weiterzuentwickeln und zu verbessern.
00:24:28: zum anderen der sogenannte präkompetitive Raum als im englischen pre-competitive space indem unterschiedliche Stakeholder zusammenkommen um zunächst gemeinsam das Problem zu definieren und dann gemeinsam an möglichen Lösungsansätzen arbeiten.
00:24:45: Dabei ist es bevorzugt so, dass nie einzelne Lösungen privatisiert werden sondern eher an gemeinsame Spezifikationen gedacht wird.
00:24:56: Und wenn solche Aktivitäten im präkompetativen Raum möglichst viele Perspektiven einbeziehen und gleichzeitig wissenschaftliche Daten nutzen um regulatorische Entscheidungen zu informieren, lassen sich Doppelarbeiten oder Reibungsverluste in der Zusammenarbeit vermeiden.
00:25:16: Außerdem hat er auch Antworten auf die Frage wie man sicherstellt dass sich alle an gemeinsam erarbeitete Standards halten.
00:25:23: Bei vielen Harmonisierungsbestrebungen geht es bei dem präkompetitiven Raum nicht darum einzelne Lösungen vorzuschreiben sondern quasi gemeinsam eine Orientierung um das Problem zu erarbeiten und das dann gemeinsam zu lösen.
00:25:38: Ein einfaches Beispiel wäre das DINER IV Format, also wenn ein Unternehmen statt dem DINer IV Blatt ausschließlich in anderes Format etablieren möchte stellt sich natürlich die Frage ob es dafür irgendwelche überzeugenden Gründe gibt und wie sich das dann auf Interoperabilität zum Beispiel mit anderen Druckern oder Scanners so etwas auswirkt.
00:25:59: Also niemand kann die Akteure dazu zwingen Ergebnisse aus dem präkompetitiven Raum umzusetzen, wenn jedoch wissenschaftlich fundiert gezeigt wird das bestimmte Standards in klaren Mehrwert haben oder bieten dann führt es häufig dazu dass diese langfristig etabliert und noch angenommen werden.
00:26:17: Und das kann man natürlich über regulatorische Anpassungen auch halt weiterer Anreizstrukturen schaffen.
00:26:23: also als Beispiel das DICOM Format in der Radiologie.
00:26:26: Das ist weitgehender Standard.
00:26:28: gleichzeitig bleibt noch zu berücksichtigen, dass je nach Anwendung unterschiedliche Formate natürlich sinnvoll sein können.
00:26:35: Also als Beispiel werden die Publikationen weiterhin JPEG- und TIF-Bildformate verwendet obwohl das zugrunde liegende Bildformat in der Radiologie sicher im Neu-Ninzig Prozent der Fälle daekommens.
00:26:46: Das heißt Aktivitäten im präkompetiven Raum sind nicht bindend aber schaffen quasi eine evidenzbasierte Grundlage für die Harmonisierung.
00:26:54: Warum Unternehmen trotzdem eigene Standards entwickeln oder Daten zurückbehalten, beantwortete er ebenfalls.
00:27:00: Das ist eine gute Frage!
00:27:02: Also das lässt sich aus unterschiedlichen Perspektiven verstehen.
00:27:05: Wenn der Fokus initialer Innovation also auf Erkenntnis Gewinn liegt dann kann es natürlich sinnvoll sein unabhängig von anderen zu arbeiten um relativ schnell Fortschritte zu erzielen dass man neue oder potentiell patentierbare Lösungen entwickeln kann.
00:27:19: Manchmal besteht da noch die Hoffnung tatsächlich zu zukünftigen Standard wird, wenn man sich natürlich erhofft, dass alle dann die Lösung annehmen.
00:27:28: Dabei spielt es natürlich auch eine Rolle der primäre Antrieb jetzt in wissenschaftlicher Sichtbarkeit oder vorwiegend wirtschaftliche Interesse ist oder eventuell auch eine Kombination aus beiden.
00:27:38: In der Praxis zeigt sich allerdings häufig das nach einer Phase des sogenannten initialen Innovationsgewinnens oder der initialen Adaptation Das betrifft dann vorwiegende einzelne Early Adapters, sich sozusagen dazu berufen für das zu machen, dass es sich dann in der Zukunft weiterentwickelt und sich eher interoperable Standards entwickeln.
00:28:03: Also Beispiele dafür wäre der USB-Stick oder Wi-Fi oder Bluetooth bei dem man sich heute gar nicht darüber im Klaren ist, dass die Spezifikation dieser Technologien durch Initiativen im präkompetitiven Raum etabliert wurden.
00:28:18: Solche Standards entstehen dann meist wenn die grundlegende Funktionalität geklärt ist, also etabliert ist und der Bedarf an Enteroperabilität wächst.
00:28:29: Wichtig ist bei Standards ein erkennbarer Mehrwert.
00:28:32: über proprietary- und nichtproperiatäre Software wurde auf dem Forum ebenfalls gesprochen.
00:28:36: auch das Thema digitale Souveränität wurde diskutiert.
00:28:39: Der Gründer der IDM einer gemeinnützigen Tochter des UK in Hamburg Nils Schweingober war ebenfalls anwesend.
00:28:46: Die IDM entwickelt eigene KI-Modelle und will den Datentransfer in große Techunternehmen wie Google, Microsoft.
00:29:14: Vorteil, weil wir die ganzen Modelle in unserem Sinne auch weiterentwickeln können und die Qualität hochhaltend für unser System.
00:29:23: Und auch die Daten eben nicht weitergegeben werden an Drittanbieter von KI, weil was man ja auch viel beobachtet ist das in den Startups eben KI-Modeller von Dritt Anbietern wie den großen Tech Firmen überwiegend aus den USA einbinden an ihre Software und damit natürlich irgendwie vermeintlich spannende KI Software für den Gesundheitsmarkt anbieten, angewiesen sind auf diese KI-Modelle und sich damit auch extrem abhängig machen.
00:29:50: Einerseits wirtschaftlich abhängigt aber natürlich auch die ganzen Daten letztendlich zu diesen Firmen fließen und sie am Ende darauf wieder ihre Modelle weiterentwickeln Heuer verkaufen.
00:30:02: Und das ist ein Kreislauf, der natürlich total entgegen der digitalen Souveränität steht, den wir eigentlich nehmen wollen hier in Deutschland oder auch in Europa und wirklich auch als Technologie Know-how hier bei uns entstehen zu lassen die unter unseren ethischen Gesichtspunkten auch zum Beispiel Entscheidungen treffen.
00:30:20: Deshalb ist es super wichtig, dass diese KI-Modelle und insbesondere Gesundheit ist dafür ein sehr gutes Beispiel.
00:30:25: Es gibt natürlich auch ganz viele andere Beispiele wo dann wie viele Daten vorliegen und diese Daten müssen wir wenn wir Kalie zum Einsatz bringen wollen auch hier für uns in unserem Sinne und in unseren Interessen wahrend einsetzen Und das ist halt der Spannende.
00:30:39: Wir sind nicht angewiesen auf Drittanbieter KI oder LegacyKI, sondern wir entwickeln diese Modelle bei uns hier in Europa und wir haben Einfluss auf die Entwicklung, wir haben einflussauf die Qualität und genau das ist das was wir am Ende brauchen im medizinischen Kontext.
00:30:55: Digitale
00:30:56: Souveränität und Datensicherheit ist aber auch Thema des Forschungsprojekts ANOMED bzw.
00:31:01: jetzt der Fortsetzung ANOME-II.
00:31:03: Dann wer Gesundheitsdaten schützen will muss auch wissen wie Angriffe auf solche aussehen.
00:31:07: Auf der Veranstaltung zu Anometh II habe ich verschiedene mögliche Ansätze und Methoden gesehen.
00:31:12: Und es wurde auch die Problematik diskutiert, dass bei dem Versuch Daten zu anonymisieren immer ein Teil der Daten fehlt, die für die Forschung hilfreich wären.
00:31:21: Über Anomhet hab' ich mit Professor Isfandia Muramati gesprochen.
00:31:24: Er lehrt an der Universität Zulübeck IT-Sicherheit und leitet das ebenfalls vom Bundesministerium für Forschung, Technologie und Raumfahrt geförderte Forschungsprojekt.
00:31:39: Das ist ein Forschungsprojekt, das sich mit der sicheren Nutzung und Speicherung von Gesundheitsdaten beschäftigt.
00:31:47: Danke, dass du dir die Zeit nimmst!
00:31:49: Du bist ja schon seit Jahren mit dem ANOME-Projekt beschäftigt.
00:31:53: und jetzt ANOMEE II.
00:31:54: Kannst vielleicht noch mal sagen, wofür das steht und was das Ziel ist?
00:31:58: Ja gerne!
00:31:59: Wir schauen uns an wie wir sichere Datennutzungen bekommen können für medizinische Anwendungen.
00:32:04: Da geht es um so etwas wie... Next Generation Anonymisierung.
00:32:08: Die klassischen Anonymisierungsverfahren haben nicht funktioniert, wir brauchen neue und dann muss die Forschung jetzt einspringen und muss Verfahren entwickeln wie man Daten nutzen kann ohne dass man Privatsphäre vom Patienten gefährdet.
00:32:19: Ihr macht das ja auch mit dem
00:32:20: Bundesinstitut
00:32:21: für Arzneimittel- und Medizinprodukte zusammen.
00:32:24: Wie ist da so der Stand?
00:32:26: Wir arbeiten mit den Forschungsarmen des FDZ Gesundheit Und mit denen werden wir an Datensyntese Verfahren arbeiten und daran Angriffe auf Datensyntheseverfahren zu bauen, damit die in für die Zukunft verstehen wie sie besser Daten bereitstellen können.
00:32:41: Was ist das genau mit der Synthese?
00:32:44: Die FTZ hat ja einen Haufen sehr sensibler Daten, schützenswerter Daten und deswegen sind Sie immer bemüht nicht die echten Daten rauszugeben sondern eine verfälschte Variante davon oder künstliche Daten die inspiriert von diesen Originaldaten und das nennt man oftmals synthetische Daten.
00:33:00: Bald geht ja auch die Datenausleitung bei der Elektronischen Patientenakte an.
00:33:04: Was findest du da wichtig zu beachten?
00:33:06: Bei der Datenaussleitung gibt es jetzt ja Gesetze, mit denen man Daten ausleiten darf.
00:33:11: Ich finde wir sollten uns als Gesellschaft darüber im Klaren sein wie weit wir gehen wollen.
00:33:16: Es gibt ja oftmals die Devise Der Nutzen der Daten sollte das Risiko für die Betroffenen übersteigen.
00:33:22: Und meine Empfehlung für alle wäre informiert euch und daran arbeiten wir.
00:33:26: Vielleicht kann ich das mal an einem Beispiel klarmachen, weil das Risiko von Einzelpersonen oder den Betroffenen ist nicht leicht zu ermessen.
00:33:32: Erstens ist es sowieso nicht klar was ist das Risikor davon dass jemand weiß dass eine Person ein altes Diabetes hat oder haben wird bald?
00:33:38: Zweitens ist nicht klar wie sich dieses Risiko entwickeln wird.
00:33:42: wenn ich vor zwanzig Jahren auf Twitter geschrieben hätte Ich liebe es morgens irgendwelche Zerealien mit Zucker zu essen Dann würden wir jetzt, zwanzig Jahre später aus dem damaligen Tweet so was Schluss folgern können wie die Wahrscheinlichkeit dass diese Person altersdiabetes hat ist besonders hoch.
00:33:58: Also die Daten von damals werden mit der Zeit immer riskanter für die Privatsphäre.
00:34:04: Jetzt gibt es natürlich die Leute die sagen pass auf Menschenleben zu retten ist um einiges wichtiger als deine Privatsphäre Kann man so sehen?
00:34:11: Die Privatsphase betrifft nicht nur die Person privat sondern ist auch noch eine Frage der, ich sag mal einer freiheitlichen Demokratie.
00:34:22: Wenn wir alle gläserne Menschen werden und irgendwelche Unternehmen oder Regierung ein perfektes Bild Persönlichheitsprofil von jeder Person haben dann können sie gezielt person manipulieren.
00:34:34: Und das ist ne Gefahr für unsere freiheitliche Demokratie.
00:34:45: Fishing Mails an Führungskräfte schreiben und das dann nochmal in einer anderen
00:34:49: Form und auf mehreren Kanälen.
00:34:51: Genau, auf großem Stil.
00:34:53: Das hatte Cambridge Analytica ja versucht.
00:34:55: angeblich und angebliche haben sie es nicht geschafft.
00:34:57: aber sowas kann man sich in der Zukunft vorstellen und dass großflächige personalisierte Beeinflussungen stattfinden.
00:35:05: Hast du einen Ansatz wie die Bedingungen sein müssen damit Industrie und Forschung Daten bereitstellen
00:35:11: nutzen können?
00:35:12: In der Theorie.
00:35:12: Also in der Praxis gibt es ja viele vertragliche Rahmenwerke, die man schmieden kann und das wird schon gemacht und dass Nutzen von Daten in eidigen Fällen einfach unglaublich wichtig ist – ist das wahrscheinlich wenn man keine Technologien hat dies lösen?
00:35:27: Der einzige Weg den es gibt.
00:35:28: Wir arbeiten aber an technischen Regeln, an technischem Maßnahmen Und da ist die Forschung noch in den Kinderschuhen.
00:35:35: Aber was es jetzt gibt zum Beispiel für tabellarische Daten gibt es Analyseverfahren Zumindest wenn man riesige Datensätze hat, etwa eine Million Menschen in Datensätzen vertreten sind.
00:35:47: Dann kann man für tabellarische Daten sowohl künstliche Datensetze – diese synthetischen Daten – herstellen als auch angepasste Analysemethoden verwenden und kriegt Ergebnisse die durchaus brauchbar sind.
00:36:02: Was droht uns?
00:36:03: Wenn wir alles so weiterlaufen lassen und gar nicht mehr regulieren?
00:36:06: also die Rufe nach... Wir wollen den Nutzen der Daten
00:36:11: voran bringen
00:36:11: und nicht nur auf Datenschutz achten, das
00:36:14: hört man ja immer wieder.
00:36:16: Wenn
00:36:16: diese Linie so verfolgt werden würde, wäre jetzt ein bisschen das Worst-Case-Szenario.
00:36:21: Das erste ist wie gesagt selbst für die Demokratie es ist ein Problem.
00:36:24: wenn wir alle gläsern werden auch wenn man selbst persönlich damit kein Problem hat ist dieses Potenzial für die Manipulierbarkeit ein riesiges Problem für die Gesellschaft.
00:36:33: Zweitens gibt's ja viele Leute die sagen ich habe nichts zu verstecken.
00:36:37: Das liegt eventuell daran, dass diese Menschen denken sie sind ja Teil der Mehrheitsgesellschaft.
00:36:42: Sie sind ja keine marginalisierte Randgruppe aber wenn man sich das mal genauer anschaut für jede Person gibt es eine Fragestellung zu fast jeder Person so dass diese Person zu einer Handgruppe wird.
00:36:53: Wenn ich als Werbefirma um ein unschuldiges Beispiel zu bringen wissen möchte was für Kombinationen ein Lieblingsfarben Hobbys und Videos guckt die Person damit ich gut Werbung schalten kann, dann sind ganz schnell ganz viele Menschen in der Randgruppe oder einen kleinen Gruppen.
00:37:11: Und wenn wir wollen dass wir nicht gläsern sind... Wir müssen darauf achten das wir unsere Daten irgendwie vor allem von uns bewusst zur Verfügung stellen und dass wir Railgards haben, dass wir den Firmen sagen.. Uns ist es wichtig, dass ihr uns nicht zu gläsernen Menschen macht!
00:37:25: Falls ihr zu irgendeinem Zweck die Daten benutzen müsst und ich stimme zu okay aber mir ist wichtig Danach die Daten nicht weiterverwendet werden oder wenn es möglich ist, dass das voran wir arbeiten.
00:37:36: Kann man mit riesigen Datensätzen auch Trends lernen und Zusammenhänge lernen, die nicht auf einzelne Personen bezogen sind sondern auf die gesamte Bevölkerung.
00:37:46: Wir können zum Beispiel ein bisschen vorauschnen in Anfluss einer Person Und dann kriegt man Modelle raus, die nur die Trends der Bevölkerung widerspiegeln, aber keine Rückschlüsse auf einzelne zulassen und auch keine Verknüpfbarkeit dieses Modells mit anderen Modellen zu lassen.
00:38:01: Was jetzt
00:38:01: auch gestern auf der HPI-Konferenz.
00:38:04: Thema war nochmal Gehirndaten und muss teilweise auch was das für Implikationen mit sich bringt.
00:38:13: Habt ihr schon so einen Gehirndatenschutz Gedanken gemacht?
00:38:17: Nein und ja!
00:38:18: Wir haben kein Projekt, was sich nur mit Gehirnhärten beschäftigt Aber wir betrachten starke Schutzanforderungen, die auch sowas wie Gehirn-Daten ein Berücksichtigen.
00:38:29: Und dieses Thema Gehirndaten ist ein wunderbares Beispiel dafür, dass man Schlimmstfallannahmen machen sollte, das man zukunftssicher denken sollte.
00:38:38: Vor zwanzig Jahren wäre mein Twitter Post von dem ich erzählt habe... vielleicht nicht relevant gewesen für Privatsphäre und Angelegenheiten.
00:38:45: Vor fünf Jahren hätte man vielleicht gedacht, die Gedanken, die ich habe sind nicht relevant, sind nicht verknüpfbar mit irgendwas was sich veröffentlicht hat.
00:38:53: Heutzutage können wir schon denken dass alles das wir veröffentlichen, die Beispiele in einem Interview bringen, vielleicht in der Zukunft verknüpfbar sein werden mit den Gedanken die ich hab.
00:39:03: Also sollte ich vielleicht aufpassen, dass ich nicht so viel über Skating rede, sonst wissen die Leute Skating-Markt oder andere weniger unschuldige Beispiele.
00:39:12: Wir werden oftmals dafür kritisiert, dass wir diese Schlimmstfallannahme machen was Hintergrundwissen und Verknüpfbarkeit mit anderen Informationen angeht um Daten und Persönlichkeitsrechte zu schützen.
00:39:22: aber genau das ist notwendig damit wir diese unvorhergesehenen Datenquellen auch mit berücksichtigen.
00:39:27: Früher dachte man ja nicht, dass man die irgendwann vielleicht sogar ansatzweise lesen kann.
00:39:32: Was würdest du versicherten?
00:39:34: Oder insbesondere Patienten raten in Bezug auf den Umgang mit den eigenen Daten?
00:39:42: Also ich kann jeden verstehen.
00:39:44: Der sagt, benutzt meine Daten für die Medizin rettet so viel Menschen wie er kannt.
00:39:49: Absolut vertretbar und ich war auch in der Position.
00:39:52: Ich kann aber auch die Personen verstehen Die sagen mir ist nicht klar was das Risiko ist.
00:39:56: Was bedeutet das denn dass meine Daten benutzt werden dürfen?
00:39:59: An wen werden sie weitergeben?
00:40:00: Wie wichtig wird es in der Zukunft sein?
00:40:03: Wird es immer noch so sein Dass ich hier in Deutschland die Krankenkassen nicht reagieren dürfen auf meinen Gesundheitszustand, die gesetzlichen Krankenkassen.
00:40:11: Oder wird es wie in Amerika und im privaten Krankenkasten sein dass der Beitrag sich da amteste?
00:40:16: Wird der Arbeitgeber eventuell sich Daten einkaufen?
00:40:19: das kann ich auch verstehen.
00:40:20: deswegen was ich denke was wichtig ist ist dass Personen sich informieren und eine Entscheidung treffen und dass wir auch in einer Gesellschaft eine informierte Diskussion führen darüber welches Risiko ist akzeptabel welchen Risiko nutzen welche Balance welchen tradeoff wollen wir akzeptieren und was ist für mich als Person ein akzeptables Niveau?
00:40:43: Ihr habt ja jetzt einen Rechenzentrum noch
00:40:47: eröffnet.
00:40:47: Genau, im Sinne der digitalen Souveränität wurden wir mit neunundzwanzig Millionen gefördert dass wir ein kleines Rechencentrum bauen das aber groß genug ist um agentische Systeme laufen zu lassen und um Machine Learning Forschung zu machen im Rahmen unseres Anometh-Forschungszentrums Und das bauen wir jetzt auch unter anderem aus, um lokal laufende Dienste anzubieten für Partner wie Krankenhäuser oder ja andere Gesundheitsinstitutionen.
00:41:14: Um den zu ermöglichen ein bisschen mehr digitale Souveränität zu bekommen und zu wissen dass wir mit den Daten von denen nichts machen wollen weil in unserem Geschäftsmodell ist es nicht drin.
00:41:24: Wir sind eine öffentliche Institution und wir haben Auftrag öffentliche Forschung vor uns.
00:41:31: Die Förderung hat begonnen und wir müssen jetzt eine EU-weite Ausschreibung gestalten.
00:41:35: Wir modellieren, dass wir eine Menge an DGX Servern, die wir zusammenschalten können bekommen... ...die neuste Generation der Nvidia Server ist wassergekühlt.
00:41:46: Das ist geplant, das wir dann Container stehen haben in dem verschiedene Racks eingebaut werden, die dann alle gekühlt werden Und der Container braucht ein eigenes Stromzufuhr und hat ein eigenem Kühlungssystem.
00:41:58: Also genau!
00:41:58: Das sind so Standard.
00:42:00: Rechenzentrums-Hardware ist es, im Kleinstil.
00:42:03: Nur für neunundzwanzig Millionen und nicht für... ...neunund zwanzig Milliarden zum Beispiel.
00:42:08: Aber wir müssen halt auch nicht die ganze Welt bedienen!
00:42:10: Wir müssen nur die Forschungspartner, die wir lokal haben, bedienen.
00:42:17: Und ihr steigt nicht irgendwie dann doch auf ABS oder so um wenn das Geld ausgeht?
00:42:26: Natürlich muss man immer gucken wie das dann nachhaltig betrieben werden kann, aber es ist im Sinne politisch.
00:42:32: Es ist im Sinn Deutschlands und auch von Schleswig-Holstein das eine gewisse Souveränität existiert.
00:42:39: Deswegen bin ich aktuell noch optimistisch dass wir Finanzierungsmöglichkeiten
00:42:44: können.
00:42:45: Und dann kann
00:42:45: euch auch der US Cloud Act
00:42:47: nichts anhaben?
00:42:49: Genau!
00:42:52: Ja vielen Dank, dass du dir die Zeit genommen hast darüber einmal mit mir
00:42:55: zu sprechen
00:42:58: Und vielen Dank an alle anderen fürs Zuhören und bis zum nächsten Mal.
Neuer Kommentar