Dezember 28, 2024

securnews

Finden Sie alle nationalen und internationalen Informationen zu Deutschland. Wählen Sie die Themen aus, über die Sie mehr erfahren möchten

Generative KI kommt ins Gesundheitswesen, aber nicht alle sind damit zufrieden

Generative KI kommt ins Gesundheitswesen, aber nicht alle sind damit zufrieden

Bildnachweis: Nadezhda Fedronova/Getty/Getty Images

Generative KI, die Bilder, Texte, Audio, Videos und mehr erstellen und analysieren kann, hält mit Unterstützung großer Technologieunternehmen und Start-ups zunehmend Einzug in das Gesundheitswesen.

Google Cloud, Googles Abteilung für Cloud-Dienste und -Produkte, arbeitet mit Highmark Health, einem gemeinnützigen Gesundheitsunternehmen mit Sitz in Pittsburgh, an generativen KI-Tools zur Personalisierung des Aufnahmeerlebnisses von Patienten. Die AWS-Abteilung von Amazon arbeitet nach eigenen Angaben mit namentlich nicht genannten Kunden an einer Möglichkeit, generative KI für Analysen zu nutzen Medizinische Datenbanken zu „Sozialen Determinanten von Gesundheit“. Microsoft Azure hilft beim Aufbau eines generativen KI-Systems für Providence, das gemeinnützige Gesundheitsnetzwerk, um Nachrichten, die von Patienten an Pflegekräfte gesendet werden, automatisch zu sortieren.

Zu den bemerkenswerten KI-Startups im Gesundheitswesen gehören Ambience Healthcare, das eine generative KI-Anwendung für Ärzte entwickelt; Nabla, Umgebungs-KI-Assistent für Praktiker; und Abridge, das Analysetools für die medizinische Dokumentation entwickelt.

Die weit verbreitete Begeisterung für generative KI spiegelt sich in Investitionen in generative KI-Bemühungen im Gesundheitswesen wider. Insgesamt haben generative KI in Start-ups im Gesundheitswesen bisher Risikokapital in zweistelliger Millionenhöhe eingeworben, und die überwiegende Mehrheit der Gesundheitsinvestoren sagt, dass generative KI ein großer Erfolg war. Ich war sehr betroffen Ihre Anlagestrategien.

Doch sowohl Fachleute als auch Patienten sind sich uneinig darüber, ob die auf das Gesundheitswesen ausgerichtete generative KI für die Hauptsendezeit bereit ist.

Generative KI ist möglicherweise nicht das, was die Menschen wollen

In Die neueste Umfrage von DeloitteNur etwa die Hälfte der amerikanischen Verbraucher (53 %) gaben an, dass sie glauben, dass generative KI die Gesundheitsversorgung verbessern kann – beispielsweise indem sie sie zugänglicher macht oder die Wartezeiten für Termine verkürzt. Weniger als die Hälfte gab an, dass sie erwarten, dass produktive KI die medizinische Versorgung erschwinglicher machen wird.

Andrew Borkowski, Chief Artificial Intelligence Officer beim Virginia Sunshine Healthcare Network, dem größten VA-Gesundheitssystem in den Vereinigten Staaten, glaubt nicht, dass dieser Pessimismus ungerechtfertigt ist. Borkowski warnte davor, dass der Einsatz generativer KI aufgrund ihrer „erheblichen“ Einschränkungen – und Bedenken hinsichtlich ihrer Wirksamkeit – verfrüht sein könnte.

„Eines der Hauptprobleme der generativen KI ist ihre Unfähigkeit, komplexe medizinische Fragen oder Notfallsituationen zu bewältigen“, sagte er gegenüber TechCrunch. „Seine begrenzte Wissensbasis – das heißt das Fehlen aktueller klinischer Informationen – und der Mangel an menschlicher Erfahrung machen es ungeeignet für die Bereitstellung umfassender medizinischer Ratschläge oder Behandlungsempfehlungen.“

Siehe auch  Die Aktien schließen nach dem starken Stellenbericht wenig verändert

Viele Studien weisen darauf hin, dass diese Punkte gültig sind.

In einem in JAMA Pediatrics veröffentlichten Artikel beschreibt der KI-generierte Chatbot ChatGPT von OpenAI, den einige Gesundheitsorganisationen für begrenzte Anwendungsfälle getestet haben, Es wurde festgestellt, dass man Fehler macht Diagnose von Kinderkrankheiten in 83 % der Fälle. Treu Tests Ärzte am Beth Israel Deaconess Medical Center in Boston stellten fest, dass das Modell die falsche Diagnose als erste Antwort in fast zwei von drei Fällen klassifizierte, als GPT-4 von OpenAI als diagnostischer Assistent eingesetzt wurde.

Die heutige generative KI hat auch mit medizinischen Verwaltungsaufgaben zu kämpfen, die ein wesentlicher Bestandteil des täglichen Arbeitsablaufs von Ärzten sind. Im MedAlign-Benchmark zur Bewertung, wie gut KI beispielsweise die Gesundheitsakten von Patienten zusammenfassen und Notizen durchsuchen kann, GPT-4 schlägt in 35 % der Fälle fehl.

OpenAI und viele andere Anbieter generativer KI Sie warnen davor, sich bei medizinischen Ratschlägen auf ihre Modelle zu verlassen. Aber Borkowski und andere sagen, sie könnten mehr tun. „Wenn man sich im Gesundheitswesen ausschließlich auf generative KI verlässt, kann dies zu falschen Diagnosen, unangemessenen Behandlungen oder sogar lebensbedrohlichen Situationen führen“, sagte Borkowski.

Jan Egger, der am Institut für Künstliche Intelligenz in der Medizin der Universität Duisburg-Essen KI-gesteuerte Therapien leitet und Anwendungen der neuen Technologie in der Patientenversorgung untersucht, teilt Borkowskis Bedenken. Er glaubt, dass der einzige sichere Weg, geburtshilfliche KI im Gesundheitswesen derzeit einzusetzen, in der strengen Aufsicht und Überwachung eines Arztes liegt.

„Die Ergebnisse könnten völlig falsch sein und es wird schwieriger, das Bewusstsein dafür aufrechtzuerhalten“, sagte Egger. „Natürlich kann generative KI beispielsweise zum Vorabschreiben von Entlassungsbriefen eingesetzt werden, aber Ärzte haben die Verantwortung, dies zu prüfen und die endgültige Entscheidung zu treffen.

Generative KI kann Stereotypen aufrechterhalten

Eine besonders schädliche Art und Weise, wie generative KI im Gesundheitswesen schief gehen kann, ist die Aufrechterhaltung von Stereotypen.

In einer Studie von Stanford Medicine aus dem Jahr 2023 testete ein Forscherteam ChatGPT und andere KI-generierte Chatbots auf Fragen zur Nierenfunktion, Lungenkapazität und Hautdicke. Die Co-Autoren stellten fest, dass ChatGPT-Antworten nicht nur oft falsch waren, sondern dass die Antworten auch viele seit langem gehegte falsche Annahmen enthielten, dass es biologische Unterschiede zwischen Schwarzen und Weißen gebe – Unwahrheiten, die bekanntermaßen dazu führen, dass medizinische Fachkräfte Probleme mit der Gesundheit falsch diagnostizieren .

Siehe auch  Ist "leiser Start" eine gute Idee? Das sagen Arbeitsplatzexperten

Die Ironie besteht darin, dass die Patienten, die im Gesundheitswesen am wahrscheinlichsten durch generative KI diskriminiert werden, auch diejenigen sind, die sie am häufigsten nutzen.

Menschen ohne Krankenversicherungsschutz – Größtenteils farbige MenschenLaut einer Studie von KFF sind sie eher bereit, generative KI für Dinge wie die Suche nach einem Arzt oder die Unterstützung bei der psychischen Gesundheit auszuprobieren, wie eine Deloitte-Umfrage ergab. Wenn KI-Empfehlungen durch Voreingenommenheit beeinträchtigt sind, könnte dies die Behandlungsungleichheiten verschärfen.

Einige Experten argumentieren jedoch, dass die generative KI in dieser Hinsicht Fortschritte macht.

In einer Ende 2023 veröffentlichten Microsoft-Studie heißt es: Die Forscher sagten, sie hätten eine Genauigkeit von 90,2 % erreicht. An vier anspruchsvollen medizinischen Benchmarks mit GPT-4. Vanilla GPT-4 konnte dieses Ergebnis nicht erreichen. Die Forscher sagen jedoch, dass sie durch Rapid Engineering – das Entwerfen von Vektoren für GPT-4 zur Erzeugung spezifischer Ausgaben – das Ergebnis des Modells um bis zu 16,2 Prozentpunkte steigern konnten. (Es ist erwähnenswert, dass Microsoft ein wichtiger Investor in OpenAI ist.)

Jenseits von Chatbots

Doch nicht nur das Stellen einer Frage an einen Chatbot ist nützlich für generative KI. Einige Forscher sagen, dass die medizinische Bildgebung stark von der Leistungsfähigkeit der generativen KI profitieren könnte.

Im Juli stellte eine Gruppe von Wissenschaftlern ein System namens c vorIntegrationsbasierte Verschiebung des klinischen Arbeitsablaufs (CoDoC), in einer in Nature veröffentlichten Studie. Das System soll verstehen, wann medizinische Bildgebungsexperten sich bei der Diagnose auf KI statt auf herkömmliche Techniken verlassen sollten. Den Mitautoren zufolge schnitt CoDoC mit einer Reduzierung des klinischen Arbeitsablaufs um 66 % besser ab als Spezialisten.

Und im November a Chinesisches experimentelles Forschungsteam Panda, ein Modell der künstlichen Intelligenz, das zur Erkennung potenzieller Pankreasläsionen im Röntgenbild verwendet wird. A Die Studie zeigte PANDA muss bei der Klassifizierung dieser Läsionen sehr vorsichtig sein, da sie oft zu spät für einen chirurgischen Eingriff entdeckt werden.

Tatsächlich sagte Arun Thirunavukkarasu, ein klinischer Forschungsstipendiat an der Universität Oxford, dass es „nichts Einzigartiges“ an der generativen KI gebe, was ihren Einsatz im Gesundheitswesen ausschließen würde.

Siehe auch  Die wöchentliche Nachfrage nach Hypothekenrefinanzierungen erholte sich, als die Zinssätze auf ein 7-Wochen-Tief fielen

„Profanere Anwendungen der generativen KI-Technologie sind möglich In Kurz- und mittelfristig gehören dazu Textkorrekturen, die automatische Dokumentation von Notizen und Briefen sowie verbesserte Suchfunktionen zur Verbesserung der elektronischen Patientenakte. „Es gibt keinen Grund, warum generative KI-Technologie – wenn sie effektiv ist – nicht eingesetzt werden kann.“ In Diese Art von Rollen sind genau richtig.

„strenge Wissenschaft“

Doch während generative KI in bestimmten, eng begrenzten Bereichen der Medizin vielversprechend ist, weisen Experten wie Borkowski auf technische und Compliance-Hürden hin, die überwunden werden müssen, bevor generative KI als universelles Hilfsmittel im Gesundheitswesen nützlich – und zuverlässig – werden kann.

„Erhebliche Datenschutz- und Sicherheitsbedenken betreffen den Einsatz generativer KI im Gesundheitswesen“, sagte Borkowski. „Die Sensibilität medizinischer Daten und das Potenzial für Missbrauch oder unbefugten Zugriff darauf stellen ein erhebliches Risiko für die Vertraulichkeit der Patienten und das Vertrauen in das Gesundheitssystem dar. Darüber hinaus entwickelt sich die regulatorische und rechtliche Landschaft rund um den Einsatz generativer KI im Gesundheitswesen noch weiter.“ Es bleiben Fragen im Zusammenhang mit Haftung, Datenschutz und der Ausübung der Medizin durch nichtmenschliche Wesen, die geklärt werden müssen.

Sogar Thirunavkarasu, ein Optimist in Bezug auf generative KI im Gesundheitswesen, sagt, dass hinter patientenorientierten Instrumenten „harte Wissenschaft“ stecken sollte.

„Vor allem ohne direkte medizinische Aufsicht muss es pragmatische randomisierte Kontrollstudien geben, die einen klinischen Nutzen belegen, um den Einsatz patientenorientierter geburtshilflicher KI zu rechtfertigen“, sagte er. „Die Weiterentwicklung einer soliden Governance ist unerlässlich, um unvorhergesehene Schäden nach einem groß angelegten Einsatz zu überwinden.“

Die Weltgesundheitsorganisation hat kürzlich Richtlinien herausgegeben, die eine solche wissenschaftliche und menschliche Aufsicht über generative KI im Gesundheitswesen sowie die Einführung von Audits, Transparenz und Folgenabschätzungen dieser KI durch unabhängige Dritte fordern. Das Ziel, das die Weltgesundheitsorganisation in ihren Leitlinien darlegt, besteht darin, die Beteiligung einer vielfältigen Gruppe von Menschen an der Entwicklung generativer KI für das Gesundheitswesen zu fördern und ihnen die Möglichkeit zu geben, Bedenken zu äußern und während des gesamten Prozesses Beiträge zu leisten.

„Solange die Bedenken nicht angemessen ausgeräumt werden und angemessene Schutzmaßnahmen getroffen werden, könnte die weit verbreitete Einführung medizinischer KI … schädlich für Patienten und die Gesundheitsbranche insgesamt sein“, sagte Borkowski.