KI-Sprachverarbeitung fürs Krankenhaus: Argo und Orpheus wurden im UKE trainiert

Shownotes

In der dritten Ausgabe des Digital-Health-Podcasts von heise online spricht Anna Laura Gundler mit dem Neurologen Nils Schweingruber. Er ist CEO der IDM gGmbH, einer Ausgründung des Universitätsklinikums Hamburg-Eppendorf. Mit dessen Daten wurde das KI-Sprachmodell Argo trainiert und ein medizinisches Transkriptionstool Orpheus entwickelt. Die Daten werden dabei ausschließlich datenschutzgerecht und anonymisiert verwendet und verlassen die Kliniken nicht.

Link zum Beitrag: https://heise.de/-11242455 https://www.heise.de/news/DMEA-Wie-KI-in-Arztpraxen-und-Kliniken-zum-Einsatz-kommt-10346719.html https://www.heise.de/news/Medizininformatik-Initiative-Vom-Aufbau-zur-Nutzung-realer-Gesundheitsdaten-11224742.html

Transkript anzeigen

00:00:01: Willkommen beim Digital Health Podcast von Heiser Online.

00:00:06: Hier geht es um die Digitalisierung im Gesundheitswesen, von Apps und Medizintechnik bis hin zur Gesundheitspolitik.

00:00:13: Für alle wissen wollen wie sich das Gesundheitswesend digital verändert.

00:00:19: Hallo mein Name ist Anna Guntler und ich bin freie Journalistin.

00:00:23: in dieser Folge sprechen wir über KI Anwendungen in Kliniken In Hamburg.

00:00:27: im Universitätsklinikum Hamburg-Eppendorf kurz UKE wurde die IDM gegründet.

00:00:32: Das steht für innovative digitale Medizin.

00:00:35: Diese gemeinnützige Tochtergesellschaft hat die Daten der UKE-Patientinnen seit dem Jahr, datenschutzgerecht und anonymisiert genutzt um KI-Tools für das gesamte Klinikpersonal zu entwickeln.

00:00:47: Wie diese Tools jetzt schon den Klinikalter verändern und für wen sie außerdem gedacht sind erzählt uns einer der Geschäftsführer der IDM Dr.

00:00:55: Nils Schweingrober.

00:00:56: Hallo Nils!

00:00:57: Hallo.

00:00:58: Vielen Dank, dass du dir die Zeit nimmst.

00:01:00: Sehr

00:01:00: schön, dass ihr zur Besuch seid bei uns.

00:01:02: Danke!

00:01:03: Lass uns direkt anfangen.

00:01:05: Warum habt ihr die IDM überhaupt gegründet?

00:01:08: Die IDM ist wie du schon gesagt hattest eine hundertprozentige Tochter des UKEs und das Ziel ist es, dass wir KI-Anwendungen für den Deutschsprachengraum entwickeln und nicht nur dem UKE zu verfügen stellen sondern tatsächlich allen im deutschsprachigen Besonderheitsraum sozusagen.

00:01:28: Und warum gemeindützig?

00:01:30: Weil wir davon überzeugt sind, dass die KI-Mundelle, die auf solidarisch gewonnenen Gesundheitsdaten trainiert werden auch dem System zurückgegeben werden sollten und deswegen sind wir von dieser Idee sehr angetan gewesen das hier am UKE machen zu können.

00:01:50: Und natürlich muss man sagen, ist das OKE auch ein sehr toller Ort.

00:01:55: Weil wir hier schon seit über zwanzig Jahren jetzt digital in unserem Alltag aufgestellt sind.

00:02:02: Wir haben seit jetzt zwei Tausendneuen durchgehend eine digitale Patientenakte bei uns am OKE und somit sieben Millionen Patientenfälle, auf denen wir KI-Modelle auch trainieren können.

00:02:15: Und wir gehen davon aus dass diese KI die auf diesen Daten steht auch sehr gut generalisiert und in anderen Orten diesem Gesundheitssystem auch funktionieren wird.

00:02:27: Welche Anwendungen habt ihr denn bisher überhaupt in Praxis, in Entwicklung hier schon im UKE oder woanders zur Anwendung gebracht?

00:02:35: Wir haben zwei Anwendungsanwendungen letztendlich jetzt in der Anwendigung schon und arbeiten auch schon an vielen Banden weiterer Anwendum das Erste, was wir bei uns im UKE in die Anwendung gebracht haben war AGO.

00:02:50: Es ist ein großes Sprachmodell, welches wir auf dem gesamten Text des UKEs trainiert haben und was eine Lage ist, bei der Arsbriefschreibung zu unterstützen.

00:03:00: Man kann sich das so vorstellen dass wenn man einen Ars Brief schreibt... kann man aus der Patientenakte auf AGO zugreifen.

00:03:09: Und AGO generiert dann die Epikrise für einen, den man dann sozusagen anpassen kann und in seinen Erzbrüch übernehmen

00:03:16: kann.".

00:03:16: Du hast Epikrize gesagt?

00:03:18: Kannst du kurz sagen was das ist?

00:03:20: Was ist das schon eine

00:03:20: Krise?".

00:03:21: Ja, was für ne Krise!

00:03:22: Ein Arztbrief wird ja normalerweise am Ende eines Aufenteils einem stationären Aufenteil eines Patienten geschrieben und der besteht meistens aus unterschiedlichen Bestandteilen.

00:03:34: Und dann gibt es die Epikrise als Bestandteil, wo sich die Ärztinnen und Ärzte noch mal kritisch mit dem Verlauf auseinandersetzen.

00:03:42: was ist sozusagen passiert bei uns?

00:03:44: Was waren wichtige diagnostische Schritte, die wir vorgenommen haben und zu welchem Fluss sind wir gekommen, die ja mit den Patienten behandelt?

00:03:52: und was sind vielleicht auch Sachen worauf der Weiterbehandler acht geben soll.

00:03:58: Dann kommen noch mal so je nach dem, wie man seinen Arztbrief aufbaut unterschiedliche andere Abschnitte.

00:04:04: aber das bringt einem schon direkt zu den Problemen.

00:04:07: also der Arsbrief an sich ist, und das ist ganz interessant wenn man sich mit diesem Prozess beschäftigt eben überhaupt nicht standardisiert.

00:04:16: Und da merkt man schon dass wir in der Medizin auch wenn wir alle über das Gleiche reden nämlich über ein Ars Brief eben da keine ja keinen Standardisierungsvorgehen haben.

00:04:27: wie hat so einen Ars Brif auszusehen?

00:04:29: was sind wirklich wichtige Bestandteile darin?

00:04:33: Und es auch bei AGO, zumindest auch so jetzt ganz interessant.

00:04:37: Also AGO hat gesagt im ersten Schritt die Epikrise geschrieben.

00:04:41: Warum die Epi-Krise?

00:04:42: Weil das der Abschnitt ist, der am meisten Arbeit noch kostet, weil der häufig für den Arzt und die Ärztin, weil er selbst geschrieben wird.

00:04:51: Also händisch noch geschrieben oder diktiert wird.

00:04:54: Der Abschnitt der Epikise ist der wo man sozusagen noch am meisten medizinischen Input reingeben muss und halt auch selbst schreibt.

00:05:02: Deswegen In einer digitalen Aspliffvorlage, so wie wir sie hier bei uns im KE haben.

00:05:07: Wie gesagt kostet die Äppelkäse am meisten Zeit und warum sei ich das immer so ausdrücklich?

00:05:11: Weil also die digitale Asplifvorlage ist schon eigentlich standardisiert und gleich bei uns über, wie gesagt, Jahrzehnte hinweg.

00:05:20: Aber trotzdem ist es so, dass die einzelnen Abschnitte nicht standardisiert und gleich über die verschiedenen Kliniken genutzt werden.

00:05:27: Und da sieht man auch wieder je strukturierter Mann oder standardisierter Man eigentlich auch eine Vorlage baut in der Klinik Sie wird nicht standardisiert gleich genutzt.

00:05:38: Wenn man jetzt dahergeht und sagt, man möchte mit einem großen Sprachmodell wie AGO die Epikrise automatisiert generieren, gibt es da häufig in diesen Prozessen ein Problem weil wir aufgrund dieser fehlenden Standardisierung AGO zwingen auch einmal, wie gesagt, in der Psychiatrie ganz andere Ausprüfe zu schreiben als in der Technologie.

00:06:00: Da merkt man dann das eigentlich letztendlich wenn Automatisierung in der Arztbriefschreibung unterhält, unterschiedliche Aspekte der Stantisierung und auch das Change es in diesem Prozess hat.

00:06:12: Also ich sage auch immer gerne ein bisschen ketzerisch wir haben eigentlich eine KI entwickelt die Arzt Briefe schreibt um den Arzt Brief abzuschaffen als solches.

00:06:20: Wir wollen eigentlich dieses alte Instrument ArztBrief in der Zukunft vielleicht nicht mehr.

00:06:27: Und wenn man sich damit beschäftigt, kommt man auf einmal einen Punkt.

00:06:32: Wo man sich dann auch einmal darüber hinterhält was wollen wir denn eigentlich anstelle eines Arztbriefes?

00:06:36: und das ist tatsächlich ein ganz interessanter Prozess der dann stattfindet in Kliniken einem Umdenken, was auch stattfindets und dass es super spannend den zu begleiten.

00:06:47: und genau dahingehend wird sich AGO auch entwickeln.

00:06:49: Wir werden mit AGO jetzt in diesem Jahr zum Beispiel nicht mehr nur die Epikrisen generieren sondern AGO als solches komplettes Tool sein, worin wir die Aspriefschreibung der Zukunft drin stattfinden lassen werden.

00:07:04: Also wenn Sie sozusagen einen Kiss haben bei sich im Krankenhaus dann können sie mit Argo in Zukunft die komplette Asprüfschreibungen dort rausnehmen und sie in Argo stattfindet lassen aber quasi KI gestützt an jeder Stelle für jedes Abchnitt, für jeden Standard so wie man sich das in Zukunft vorstellt Und das ist ein sehr spannender Aspekt muss man sagen

00:07:26: Könnte AGO dafür auch als Diagnosetool missbraucht werden?

00:07:30: oder ist das sogar geplant?

00:07:32: Oder habt ihr Grenzen, was zum Beispiel AGO auch nicht tun soll.

00:07:36: Das soll es nicht.

00:07:37: Es darf nicht als Diagnosetool benutzt werden.

00:07:40: aber natürlich kann man mit AGO und da arbeiten wir auch dran in der Diagnostik unterstützen.

00:07:47: Unser Meilensteiner dieses Jahr ist die Zertifizierung für ISO-Dreizendvieracht.

00:07:55: fünf.

00:07:55: Zertifizierung, die man braucht als Hersteller um auch Medizinprodukte auf den Markt zu bringen.

00:08:01: Und genau das wollen wir auch machen.

00:08:03: also wir wollen auf jeden Fall auch große Sprachmodelle zum Beispiel oder KI-Agenten trainieren und so entwickeln dass sie in der Diagnostik und auch in der Behandlung von Patienten dann unterstützen.

00:08:16: Das zweite Produkt ist Orpheus, es ist seit Anfang im KEM Einsatz und eine Spracherkennung.

00:08:28: die bei uns unsere herkömmliche Sprache können, wie wir hatten am UKE komplett abgelöst hat und ein totaler Gamechanger war.

00:08:35: Weil wir diese KI allen zugänglich gemacht haben am UKA also alle fünfzehntausend Mitarbeiter des UKEs können damit arbeiten.

00:08:44: Und das Spannende ist dass wir das jetzt mittlerweile an insgesamt vier Unikliniken über dreißig Krankenhäusern und vielen anderen auch ambulanten Gesundheitseinrichtungen weit über zwei Hundert mit dabei am Laufen haben und wir überzeugt sind, dass das eine sehr spannende Technologie sein wird wie wir in Zukunft auch mit RKI interagieren werden.

00:09:09: Du hattest schon gesagt Orpheus hat das Spracherkennungstool was hier vorher benutzt wurde abgelöst?

00:09:16: Warum

00:09:16: oder wie unterscheidet sich das denn zu anderen herkömmlichen Spracherkenungstools?

00:09:21: Office ist eigentlich also aus meiner Perspektive ein perfektes Beispiel, an dem man das einmal durchgehen kann.

00:09:27: Warum es super wichtig ist, dass die IGM gibt?

00:09:29: Weil wir beobachtet haben, dass wenn man Spracherkennung herkömmliche Spracherkönnung, KI-Sprachekennung sich jetzt einkaufen möchte als Unternehmen dann kann man die überwiegend nur noch in der über die Cloud beziehen.

00:09:44: Also das ist der erste Punkt, also Orphäus ist tatsächlich ein Spracherkennungssystem was man auch noch lokal bei sich im Rächelzentrum betreiben kann wahrscheinlich das einzige auf dem Markt was sie bislang aktuell noch so kriegen können.

00:09:54: Dann war für uns immer die Perspektive ganz spannend dass wenn man eine herkömmliche Spracherkennung irgendwie sich in seinem Unternehmen holt Man erstens dafür sehr viel Geld bezahlt und aber auch die Daten letztendlich abfließen.

00:10:09: zu den... Unternehmen, die das natürlich dankend nehmen und darauf ihre KI weiterentwickeln und uns wieder zurückverkaufen.

00:10:17: Also es ist sozusagen eine Spirale in die wir uns da begeben wo wir KI letztendlich nur nutzen sie aber nicht aktiv weiterentwicklen und auch unter unseren Gesichtspunkten quasi weiter entwickeln.

00:10:30: Und wir durchsprechen diesen Kreislauf und sagen Nein!

00:10:34: Die Daten bleiben sozusagen hier bei uns in Europa in Deutschland und wir entwickeln darauf unsere sozusagen KI Modelle hochspezifisch für unser System weiter und bringen sie sozusagen in die Breite.

00:10:46: Und damit durchbricht man das Kreislauf, dass man eben nicht nur sozusagen KI konsumiert sondern KI auch aktiv weiterentwickelt und sie eben für unser system auch weiterentwicklt.

00:11:00: Das ist ja eine ganz andere Perspektive wie man dann hat.

00:11:04: Du hast gesagt Orpheus wird schon von mehreren Kliniken praxen?

00:11:09: auch verwendet.

00:11:11: Haben die alle eigene Rechenzentren, wo es drauflaufen kann?

00:11:14: Nein, nicht gerade nicht alle!

00:11:16: Also wir haben das an unterschiedlichen Institutionen und auch in unterschiedlichen Rechencentren installiert.

00:11:21: man braucht natürlich auch eine spezielle Hardware dafür, also man braucht Grafikkarten letztendlich auch dafür um das natürlich lokal bei sich betreiben zu können.

00:11:29: Und für Praxen haben wir tatsächlich das Ganze aber in einer deutschen Cloud nämlich bei der Stack IT aktuell gehostet und haben da den großen Vorteil weil wir nicht auf externe KI-Komponenten angewiesen sind dass wir es zeigen in unserem Private Compute Bereich alles machen können.

00:11:53: Also wir haben das Modell dort, wir haben unsere eigenen, sozusagen, propretären Grafikkarten da und deswegen fließen da auch keine Daten ab an

00:12:03: Dritte.".

00:12:04: Das ist jetzt doch alles trainiert auf deutsche Sprache?

00:12:08: Richtig!

00:12:09: Jetzt gibt es ja im KA zum Beispiel auch Forschung, medizinische Forschung ist aber normalerweise viel auf Englisch.

00:12:16: Ist das leicht übertragbar oder wäre das nochmal Ganz anderer.

00:12:21: Wir wollen dieses Jahr auch Office... Also, Office wird Englisch können.

00:12:28: also das haben wir jetzt tatsächlich schon.

00:12:30: in dem aktuellen Modell ist es schon auch mit enthalten dass das Office englisch kann und wir werden aber auch versuchen andere europäische Sprachen noch mit hineinzubringen.

00:12:41: da sind wir gerade dabei Konzepte uns überlegen wie wir das am besten machen.

00:12:45: Europa ist auf jeden Fall auch spannend.

00:12:47: Ich stelle mir jetzt so vor Orpheus ist das Spracherkennostool.

00:12:51: Also kann Ärzteschaft, Pflegepersonal diktieren, reinsprechen ... Was sie gerade zum Beispiel dazu gesagt hat, Visitebesuch

00:13:01: an der Mese oder so?

00:13:02: Genau, alles Mögliche.

00:13:04: Greifen dann Arge und Orpheus technisch funktionell irgendwie ineinander?

00:13:09: Genau also es ist sozusagen die Idee dass irgendwann das auch technisch ineinander greift, also dass du sprichst freisprichst im Gespräch bist und das sozusagen aufgenommen wird.

00:13:22: Und du letztendlich Technologie hast, dann die das Ganze auch strukturiert.

00:13:27: So ist die Idee!

00:13:27: Und zu Argum gehört noch eine andere Sache, die wir auch gelernt haben – und das ist natürlich jetzt irgendwie wahrscheinlich auch nichts Überraschendes für, sagen wir mal heise online Podcast-Hörer.

00:13:37: vielleicht wenn man sich Gedanken darüber macht, dass man automatisierte Prozesse stattfinden lassen möchte.

00:13:45: Braucht man natürlich auch dafür standardisierte Daten und da haben wir natürlich im Gesundheitswesen große Herausforderungen an vielen Stellen.

00:13:55: Das heißt also die Daten liegen natürlich nicht standardisiert vor und wir brauchen Systeme, Dezentral gespeicherte fragmentierte Daten so aufbereiten, dass sie dann zentral an einer Stelle im Krankenhaus offen und zugänglich und strukturiert gespeicherter werden.

00:14:17: Und das ist letztendlich ein... eigentlich ja sozusagen auch weiteres Produkt, was wir entwickeln.

00:14:22: Wir haben einen KI-getriebenes Data Warehouse, das unter Argo steht und in der Lage ist mit allen möglichen und strukturierten Daten im klinischen Alltag umzugehen diese dann in Fire zu übersetzen.

00:14:36: Und die Idee ist dass diese Firedaten eine Interoperabilitätsplattform im Krankenhaus persistiert.

00:14:42: Die Speicher werden gespeichert und darauf baut man jetzt.

00:14:47: unterschiedliche Module die zum Beispiel KI gestützt sind, wie Argo z.B.

00:14:52: setzen dann da drauf auf und kann man auf der Interoperabilitätsplattform jetzt endlich, ja, zum Beispiel Asprekschreibung stattfinden lassen aber auch noch viele andere spannende KI-Modelle oder auch Module dann letztendlich draufsetzen.

00:15:06: Aber die Daten müssen dafür natürlich erst mal offen interoperabel und zugänglich sein.

00:15:10: Für wen?

00:15:11: Für welche Berufsgruppen oder welche Orte ist es denn die beiden Anwendungen im Moment primär gedacht?

00:15:17: eigentlich

00:15:18: Orpheus ist für wirklich alle gedacht im Krankenhaus.

00:15:24: So haben wir es auch immer, als wir es hier vom UKE eingeführt haben, am Anfang schon in den ersten Phasen gedacht also dass wir da keine Unterscheidung machen wollen zwischen herzlichen Personal und figurischen Personal, also wir hatten auch früh alle Berufsgruppen sozusagen immer mit dabei.

00:15:44: Und ich bin auch weiterhin fest davon überzeugt dass wenn man ein solches KI-Tool wie moderne Spracherkennung in sein Unternehmen einführt das man es tatsächlich nicht nur an einer Stelle machen sollte sondern eigentlich an allen Stellen Man sollte es als Common Tool sehen, wirklich versuchen auf die Tastatur sozusagen zu verzichten.

00:16:05: Weil man einfach viel schneller diktiert, tippen würde.

00:16:08: Und was ist wichtig, wenn man jetzt die Prozesskette sich anschaut?

00:16:11: Es ist ja nicht nur so dass das ärztliche Personal viel dokumentiert sondern es dokumentieren entlang der Prozessketten natürlich sehr viele Menschen und genau diese soll man ja auch alle mit Technologie unterstützen.

00:16:25: Man eben nicht mehr diese Unterscheidung macht.

00:16:27: wem gebe ich jetzt Technologie um?

00:16:29: wenig und auch ein großer Grund warum es eben wichtig ist diese Technologie kostendeckend und auch gemeinnützig sozusagen in die Breite zu bringen, weil wir eben keine Unterscheidung machen wollen.

00:16:43: Ja eigentlich für wen leisten wir uns Unterstützungssysteme?

00:16:47: Und für wen nicht?

00:16:48: Also diese Unterscheiden sollten wir eigentlich gar nicht machen.

00:16:51: Wäre es jetzt auch etwas für meine Hausärztin, die Praxis bei mir um die Ecke sozusagen?

00:16:57: Genau!

00:16:57: Sogar sehr.

00:16:58: Im ambulanten Bereich ist sogar noch ein ganz interessanter Aspekt, ich komme ja sozusagen aus einem großen Maximalfersorger hier und aus der Perspektive.

00:17:06: Wir haben aber im letzten Jahr mit sehr vielen unterschiedlichen Leuten im System auch Kontakt gehabt.

00:17:11: wenn.

00:17:11: Ich bin immer davon ausgegangen dass man insbesondere im ambulantenbereich Spracherkennung nutzt wird auch viel genutzt Aber tatsächlich auch an vielen Stellen nicht.

00:17:20: Und das hat mich gewundert und Der Grund war häufig Dass sie gesagt haben es ist zu teuer haben es sich einfach nicht geleistet, so ein Spracherkennungssystem überhaupt zu nutzen.

00:17:34: Das fand ich immer wieder krass!

00:17:35: Also das Feedback haben wir tatsächlich ein paar Mal bekommen, dass sie gesagt haben nö, das lohnt sich nicht für uns und wir tippen dann lieber schnell das selber.

00:17:44: Und sind aber dann total dankbar wenn Sie dann merken ok jetzt können wir auch so eine Technologie zurückgreifen und insbesondere zum Beispiel Hausärzte sind super dankbar wenn die dann auf einmal schnell einfach nur die Sachen diktieren können?

00:17:59: Das glaube ich total.

00:18:00: Und das könnt ihr dann anders anbieten, weil ihr das gemeinnützig zu einem kostenländenden Preis anbietet.

00:18:06: Genau.

00:18:06: Geht das gleiche für Argo?

00:18:07: Da habe ich mich vorhin das gefragt.

00:18:09: Ja.

00:18:10: Argo habt ihr trainiert mit den Daten aus dem UKE.

00:18:14: Aber zum Glück gehe ich jetzt ja zu meiner Hausärztin mit ganz anderen Beschwerden, die mich zum Glück meistens nicht als keine Hausprägerung.

00:18:20: kann sie auch Arge benutzen für irgendwelche Dokumentationen oder bringt das ihr gar nicht so viel, weil ihre Fälle gar nicht abgebildet sind in den Kragus-Training?

00:18:30: Agu ist aktuell noch für den stationären Bereich optimiert und auch bislang vorgesehen.

00:18:36: Aber wir denken aktuell schon etwas größer darüber nach wie wir dieses Systeme auch in die Breite bringen.

00:18:46: Und ich gebe mal ein Beispiel also es jetzt vielleicht nicht mit der konkrete Antwort darauf Aber ein Beispiel ist für mich die EEPA, also die elektronische Aktien der Patienten selber.

00:18:59: Wo ja auch die Hausärzte drauf zugreift und in dieser Akte sind überwiegend auch wieder PDF-Dokumente drin.

00:19:08: Und jetzt braucht es natürlich Technologie, die auch das wieder strukturiert damit man's besser durchsuchen kann, damit man vielleicht da wieder KI-Moderator laufen lassen kann.

00:19:19: Und ich glaube, da wird es sehr spannend werden.

00:19:25: Weil man sich schon gut vorstellen kann, dass zum Beispiel der gewisse Komponenten die wir entwickelt haben auch vielleicht darunter schützen.

00:19:33: Ja das ist sehr nöblich!

00:19:36: Auch wenn man natürlich wirklich vorstellen könnte, dass die Epa eines Tages anders strukturiert wäre.

00:19:40: Da bräuchte es nicht extra Systeme aber mal schauen wie schnell er ist.

00:19:43: Ja genau, das ist ja eine neue Idee.

00:19:44: also... Eigentlich sollten die Daten, also welche Daten wo liegen.

00:19:50: Das sollte eigentlich keinen Unterschied mehr machen.

00:19:51: Also wenn ich jetzt zum Beispiel bei mir im Krankenhaus ein aktuelles Labor gemacht habe und da war es wichtig dass das auch in deiner EPA ist dann sind diese Daten auch in der EPA.

00:20:01: Aber ich muss nicht sozusagen immer darauf Bezug nehmen mit einem Aspekt.

00:20:05: Das ist so dieses alte, der alte Gedanke warum hat man einen Aspekt geschrieben?

00:20:08: Weil man eben dieser Papierakte nicht mitgeben konnte sondern man musste halt eben auf wichtige Bestandteile in der Papierakte auch referenzieren in dem Arztpliff für den Hausarzt.

00:20:17: Aber wenn die Daten, die wir erhoben haben eh schon bei dem Hausarz auch vorliegen, dann brauchst du das ja nicht.

00:20:23: Das ist da deswegen und der ändert sich der Prozess.

00:20:25: Und ich glaube, da werden wir mit KI-Technologie oder auch gerade generativer KI in Zukunft ganz andere Möglichkeiten haben, Daten erstens nutzbar zu machen aber auch auf Daten zuzugreifen.

00:20:38: Du hattest ja am Anfang auch gesagt dass es auch darum geht diese Daten die eben das UKE hat, weil es digital schon so lange so gut aufgestellt ist.

00:20:48: Du hast gesagt seit zwei Tausendneun digitale Patientenakten?

00:20:51: Genau durchgehend.

00:20:53: Diese Daten konntet ihr benutzen.

00:20:55: Sie wollte solidarisch jetzt wieder ins System geben sozusagen diese ganzen Patientendaten, die wahrscheinlich dann in die Arztbriefe geflossen sind.

00:21:05: wussten die Patienten damals schon was ihr damit vorabt?

00:21:12: Genau, ich glaube das wussten die Patienten sicherlich nicht.

00:21:14: Aber genau dadurch dass wir sozusagen die Technologie ja hier bei uns lokal am KI entwickeln direkt sozusagen im Inneren der Klinik wo wir unsere Hardware auch aufgebaut haben ist das schon ein sehr großer Punkt sozusagen der sehr toll auch aufgenommen wird von vielen auch gerade, die sich insbesondere auch immer um Datenschutzthemen kümmern.

00:21:45: Wir sind wie gesagt direkt neben den Daten entwickeln da nichts verlässt sozusagen jetzt hier das UKE und das ist schon ziemlich... eigentlich der Gedanke, dass alles hier sozusagen bei uns vor Ort entwickelt wird.

00:21:59: Und für die Patienten ist es ja ich glaube so ähnlich wie du das ja auch mit deinem Hausärztin jetzt gerade gesagt hast, der total wichtig, dass irgendwie diese Technologie auch in den klinischen Alltag kommt damit eben wirklich die Leute im System sind unterstützt werden durch Technologie.

00:22:17: Und wir gehen auch, und da bin ich auch zutiefst von überzeugt, gehen davon aus dass du in Zukunft eigentlich gar nicht mehr ohne diese KI-Technologie zu Recht kommen wirst.

00:22:30: im klinischen Alltag also wir haben ja so viel Daten wie kannst du als Mensch zu einem bisschen Punkt auch gar nicht mehr selbst erfassen.

00:22:40: Du brauchst KI-Technologie, um dich dadurch diesen ganzen Datendummel durch zu navigieren.

00:22:47: und dann ist immer die Frage wer sollte diese KI Technologie entwickeln?

00:22:52: Und wir bei uns in der IDM sind ganz fest davon überzeugt dass wir das machen sollten, also aus der klinischen Routine heraus unter unseren ethischen Gesichtspunkten und auch Ansichten.

00:23:10: Und wir eben uns nicht abhängig machen sollten von KI-Systemen wo wir gar nicht wissen auf welchen ethischen Grundlagen sie zum Beispiel entscheiden.

00:23:22: Deswegen ist es schon sehr wichtig, dass man sich damit auseinandersetzt KI zu entwickeln, also Qualität zu sichern und auch sicherzugehen dass sie unseren Entscheidungsgrundlagen auch entspricht.

00:23:40: Weil wenn wir die Technologie nicht selbst gestalten dann machen wir es immer abhängig.

00:23:44: Du hast gesagt eure Systeme sollen grundsätzlich eigentlich für alle gedacht?

00:23:48: Hast dich... auf das ganze Personal in Kliniken bezogen.

00:23:52: Was ist denn mit anderen Organisationsstrukturen im Gesundheitssystem?

00:23:55: Also öffentlich Apotheken, was ist mit kranken Kassenfamilien?

00:23:59: Sind die mitgedacht bei euch oder konzentriert ihr euch auf Kliniken?

00:24:02: Ne also genau das ist schon die Idee als wir wollen.

00:24:04: es haben sie gesagt dass die Technologie die wir entwickeln soll wirklich eins zur Verfügung stehen also nicht nur kliniken Das ist ganz klar.

00:24:16: Also wir wollen auf jeden Fall auch Technologie für andere anbieten, wenn du so möchtest, dann wollen wir eigentlich den Treibstoffanbieten den anderen nutzen um quasi ihre Prozesse zu befeuern.

00:24:31: Wir wollen eben das System nicht mehr abhängig von KI-Modellen die überwiegend aus dem Außereuropäischen Ausland kommen sondern eben auf unsere KI Modelle zurückgreifen können Wenn man so möchte, oder das.

00:24:45: Da kann man sich ja unterschiedlichste Akteure vorstellen wie auch viel mit Dokumentationen zu tun haben, Abrechnungen zu tun.

00:24:53: und genau klar die Technologie die werden wir können soll klar natürlich nicht nur für Kliniken sein für alle.

00:25:00: da kann ich mir gut vorstellen was du auch schon ein bisschen erwähnt hast dass ihr System baut um das Personal, den ganzen Gesundheitswesen alle möglichen Beteiligten zu unterstützen und zu entlasten.

00:25:14: Aber es gibt ja auch Organisationsstruktur oder andere Player die vielleicht sagen cool dann können wir das alles effektiver gestalten und personale reduzieren zum Beispiel.

00:25:24: Und da wäre ich jetzt so ein bisschen.

00:25:26: du gehst davon aus dass das im Endeffekt passieren wird.

00:25:30: kann so oder so weil es diese Systeme geben wird.

00:25:33: und dann ist dir aber die Datensicherheit wichtig die Souveränität dass das mit eigenen in Deutschland entwickelten und hier gehosteten Systemen, wenn überhaupt stattfindet.

00:25:44: Damit zumindest die Daten von uns allen sicher

00:25:47: bleiben.".

00:25:49: Genau ich habe jetzt glaube ich nicht gesagt, dass ich davon ausgehe, dass wir im Zukunft weniger Personal haben werden.

00:25:54: Also ich hatte eher gesagt, sich davon auszugehen, dass es wir in Zukunft ohne dieses System beim klinischen Alltag nicht mehr zurechtkommen werden, weil wir einfach so viele Daten erheben und auch ein so hohes Patientenaufkommen haben werden auf gruntes demografischen Land ist.

00:26:09: Dass du einfach ohne KI nicht mehr einer Qualität Behandlung gewähren kannst die wir uns vorstellen.

00:26:16: Ich glaube das ja.

00:26:17: also wir werden nicht weniger Personal sondern wir werden einfach ein höheres Patient aufkommen haben und einfach diese Technologie brauchen um den unterschiedlichsten Bereichen zu unterstützen.

00:26:32: Da bin ich zutiefst voll überzeugt, dass wir die Technologie brauchen.

00:26:37: Personaleinsparung das glaube ich nicht.

00:26:41: Das ist einfach aufgrund des Wandels und auch aufgrund dessen hohen Arbeitsaufkommens.

00:26:47: Wir haben ja den demografischen Wandel an unterschiedlichen Stellen im System.

00:26:50: also der betrifft ja das System auch unmittelbar im ambulanten Bereich auch mit unter einigen Bereichen, wo Ärzte in den nächsten Jahren aus dem Beruf rausgehen werden.

00:27:04: Und so das auch in den Krankenhäusern und dann aber auf der einen Seite ein wirklich wesentlich höheres Patientenaufkommen ist.

00:27:13: Deswegen stellt sich diese Frage für mich gar nicht.

00:27:16: Also ich bin von fest überzeugt, dass wir einfach wirklich KI brauchen, um überhaupt noch Qualität in den dem Maße aufrecht zu erhalten, wie wir uns das vorstellen.

00:27:27: Also ich glaube es ist einfach ganz klar.

00:27:29: Open Source!

00:27:29: Ist das ein Thema für euch?

00:27:31: Wollt ihr irgendwas zur Verfügung stellen?

00:27:33: Könnt ihr etwas Open Source zur Verfügung Stellen?

00:27:36: Genau also ich dachte, dass ist noch mal auch sehr spannender Part.

00:27:39: Wir möchten auf jeden Fall als Weiterenteil der Open Source Community sein und wir werden auch bestimmt auch in diesem Jahr Dinge publizieren, die sehr spannend sein werden auch Open Source.

00:27:53: Aber zum Beispiel jetzt für diese Spracherkennung werden wir um das ein bisschen noch weiter in die Breite zu bringen eher eine ARPI anbieten also eine ARP, die auch andere Startups zum Beispiel einbinden könnten in ihre Produkte.

00:28:10: ARPI muss ich nochmal erklären was Programmschnittstelle sozusagen zu unserem KI Modell.

00:28:18: Und dann könnte, weiß ich nicht zum Beispiel ein Anbieter von einer Software für... Anrufbeantworten zum Beispiel oder anderes.

00:28:28: Die könnten dann sagen, okay ich möchte jetzt diese Audiodaten die ich erhebe, möchte ich jetzt nicht mehr zu irgendwo anders hin schicken sondern schicke ich dann sozusagen zur EDM.

00:28:39: wir transkribieren sie und schicken wieder zurück.

00:28:42: das ist für uns ein Aspekt wo wir sagen dass wird sicherlich auch nochmal sehr spannend sein und ist auch wenn man sich noch mal diesen Souveränitätsgedanken irgendwie in den Kopf holt auch super wichtig.

00:28:56: Nicht nur für die Solidarität, sondern auch um das System resilienter aufzustellen weil wir damit die Möglichkeit haben spannende Start-ups oder auch andere Wirtschaftsunternehmen sozusagen von diesen KI Modellen abhängig sind Sie so aufzustellen, dass sie uns als KI-Modell einbinden können und nicht irgendwie angewiesen sind auch andere KI Modelle.

00:29:20: Das hat ja auch gewisse Souveränitäts- und Resilienzaspekte und deshalb glaube ich ist das super spannend.

00:29:29: also wir würden gerne unsere Modelle weiterhin sehr niederschwellig und auch Kostendecken zur Fümal stellen.

00:29:37: Und ja, deswegen wird es immer eine Mischung sein aus wie gesagt nach einer Lizenzierung von Modellen.

00:29:45: Aber wir werden auch und dann nicht sehr fest von überzeugt insbesondere dieses Jahr auch Dinger Open Source zur Verfügung stellen und damit auch dieser Community helfen sozusagen an unterschiedlichen Stellen noch mal helfen.

00:30:00: Ja das heißt wir werden Ja, Produkte in diesem Bereich natürlich auch erproben.

00:30:08: Und darüber wird man es vielleicht noch einiges hören bis Jahras, genau.

00:30:13: Da

00:30:13: werden wir auf jeden Fall gespannt worden

00:30:15: auf das.

00:30:15: Ich

00:30:16: hätte noch eine Minifrage der Aro und Orpheus Ja.

00:30:19: Die seid ihr denn auf diese Namen gekommen?

00:30:21: Die Entstehungsgeschichte von Argo und Orpheus gibt es, wir haben ja im Welten so lange immer überlegt.

00:30:29: Wir finden die Namen sehr schön.

00:30:31: Das sind sozusagen Begriffe aus der griechischen Mythologie.

00:30:35: Ich dachte, das passt ganz gut in der Medizin.

00:30:38: Argo, letztendlich die Argonauten.

00:30:41: in den griechischen Mythologien waren ja auch ziemlich viele Götter und Halbgötter unterwegs – auch aufweis-, aber auch andere Namen, die man in der medizin ja auch kennt.

00:30:50: Und wir möchten damit symbolisieren, dass wir sozusagen damit verschiedene KI-Modelle in die Medizin bringen wollen.

00:30:58: Vielen Dank, dass ich hier kommen durfte!

00:31:00: Ja, vielen Dank

00:31:02: für deine Zeit!

00:31:03: Danke!

00:31:03: Viel Erfolg

00:31:04: Danke.

00:31:05: Danke ja!

00:31:06: Und in jeder Zeit, seitdem wir der Hessische eingeladen haben bei uns und da können wir uns ja Ende des Jahres noch mal unterhalten darüber.

00:31:14: Wenn wir dann sehen konnten was hier alles Neues kam, du soll nicht verraten.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.