Chatbots mit künstlicher Intelligenz sind ziemlich gut darin, einige Krankheiten zu diagnostizieren, auch wenn sie komplex sind. Aber wie machen Chatbots bei der Führung der Behandlung und Pflege nach der Diagnose? Wie lange dauert beispielsweise vor einer Operation ein Patient aufhören, verschriebene Blutverdünner zu nehmen? Sollte sich das Behandlungsprotokoll eines Patienten ändern, wenn er in der Vergangenheit nachteilige Reaktionen auf ähnliche Medikamente hatte? Diese Art von Fragen hat kein Lehrbuch richtig oder falsch – es liegt an den Ärzten, ihr Urteilsvermögen zu nutzen.
Jonathan H. Chen, MD, PhD, Assistenzprofessor für Medizin, und ein Forscherteam untersuchen, ob Chatbots, eine Art großer Sprachmodell oder LLM, solche nuancierten Fragen effektiv beantworten können und ob Ärzte, die von Chatbots unterstützt werden, besser abschneiden.
Es stellt sich heraus, dass die Antworten ja und ja sind. Das Forschungsteam hat getestet, wie ein Chatbot bei einer Vielzahl klinischer Scheidewegs aufgetreten war. Ein Chatbot für seine eigenen übertriebenen Ärzte, die nur auf eine Internetsuche und medizinische Referenzen zugreifen konnten, aber mit ihrem eigenen LLM bewaffnet waren, hielten die Ärzte aus mehreren Regionen und Institutionen in den USA mit den Chatbots Schritt.
„Seit Jahren habe ich gesagt, dass Human Plus Computer im Zusammenhang besser als bei beiden von selbst“, sagte Chen. „Ich denke, diese Studie fordert uns heraus, darüber nachzudenken und uns zu fragen: ‚Was kann ein Computer gut sind? Was kann ein menschliches Gut in gutem Zustand sind?‘ Möglicherweise müssen wir überdenken, wo wir diese Fähigkeiten einsetzen und kombinieren und welche Aufgaben wir AI rekrutieren. „
Eine Studie, in der diese Ergebnisse veröffentlicht wurden in Naturmedizin Am 5. Februar sind Chen und Adam Rodman, MD, Assistenzprofessor an der Harvard University, Co-Senior-Autoren. Postdoktorale Gelehrte Ethan Goh, MD und Robert Gallo, MD, sind Co-Lead-Autor.
Durch Chatbots gesteigert
Im Oktober 2024 leiteten Chen und Goh ein Team, das eine Studie durchführte, die in veröffentlicht wurde Jama Network OpenDas testete, wie der Chatbot bei der Diagnose von Krankheiten durchgeführt wurde und das feststellte, dass seine Genauigkeit höher war als die von Ärzten, auch wenn sie einen Chatbot benutzten. Das aktuelle Papier greift sich in die medizinische Seite der Squisier ein und bewertet Chatbot- und Arztleistung auf Fragen, die in eine Kategorie mit dem Titel „Klinisches Management -Argument“ fallen.
Goh erklärt den Unterschied wie diesen: Stellen Sie sich vor, Sie verwenden eine Karten -App auf Ihrem Telefon, um Sie zu einem bestimmten Ziel zu führen. Die Verwendung eines LLM zur Diagnose einer Krankheit ähnelt der Verwendung der Karte, um den richtigen Ort zu bestimmen. Wie Sie dorthin kommen, ist das Management -Argumentationsteil – nehmen Sie sich zurück, weil es Verkehr gibt? Bleiben Sie den Kurs, Stoßfänger zu Stoßfänger? Oder warten und hoffen, dass die Straßen klären?
In einem medizinischen Kontext können diese Entscheidungen schwierig werden. Angenommen, ein Arzt entdeckt zufällig, dass ein Krankenhauspatienten im oberen Teil der Lunge eine beträchtliche Masse hat. Was wären die nächsten Schritte? Der Arzt (oder Chatbot) sollte erkennen, dass ein großer Knoten im oberen Läpplappen statistisch eine hohe Chance hat, sich im Körper auszubreiten. Der Arzt konnte sofort eine Biopsie der Masse nehmen, das Verfahren für ein späteres Datum oder eine Bestellbilder planen, um mehr zu erfahren.
Die Bestimmung, welcher Ansatz für den Patienten am besten geeignet ist, hängt von einer Vielzahl von Details ab, beginnend mit den bekannten Präferenzen des Patienten. Sind sie zurückhaltend, um sich einem invasiven Verfahren zu unterziehen? Zeigt die Anamnese des Patienten einen Mangel an Nachverfolgung von Terminen? Ist das Gesundheitssystem des Krankenhauses bei der Organisation von Follow-up-Termine zuverlässig? Was ist mit Empfehlungen? Diese Arten von Kontextfaktoren sind von entscheidender Bedeutung, sagte Chen.
Das Team hat eine Studie entwickelt, um die Leistung des klinischen Managements in drei Gruppen zu untersuchen: allein der Chatbot, 46 Ärzte mit Chatbot -Unterstützung und 46 Ärzte mit Zugang nur auf Internet -Suche und medizinische Referenzen. Sie wählten fünf nicht identifizierte Patientenfälle aus und gaben sie dem Chatbot und den Ärzten, die alle eine schriftliche Antwort gaben, die in jedem Fall ausführte, was sie tun würden, warum und was sie bei der Entscheidung berücksichtigten.
Darüber hinaus haben die Forscher eine Gruppe von Board-zertifizierten Ärzten genutzt, um eine Rubrik zu erstellen, die ein medizinisches Urteil oder eine Entscheidung als angemessen bewertet qualifiziert. Die Entscheidungen wurden dann gegen die Rubrik getroffen.
Zu der Überraschung des Teams übertraf der Chatbot die Ärzte, die nur Zugang zu Internet und medizinischen Referenzen hatten und mehr Artikel auf der Rubrik tickten als die Ärzte. Aber die Ärzte, die mit einem Chatbot kombiniert wurden, spielten ebenso wie der Chatbot allein.
Eine Zukunft von Chatbot -Ärzten?
Genau das, was der Zusammenarbeit mit Arztchatbot einen Schub gegeben hat, ist zur Debatte bereit. Zwingt die Verwendung der LLM -Ärzte dazu, über den Fall nachdenklicher zu sein? Oder liefert die LLM Anleitungen, an die die Ärzte nicht alleine gedacht hätten? Es ist eine zukünftige Richtung der Erkundung, sagte Chen.
Die positiven Ergebnisse für Chatbots und Ärzte, die mit Chatbots gepaart sind, stellen eine immer beliebte Frage: Sind KI-Ärzte auf dem Weg?
„Vielleicht ist es ein Punkt zu Gunsten von Ai“, sagte Chen. Anstatt Ärzte zu ersetzen, deuten die Ergebnisse darauf hin, dass Ärzte möglicherweise eine Chatbot -Unterstützung begrüßen möchten. „Das bedeutet nicht, dass Patienten den Arzt überspringen und direkt zu Chatbots gehen sollten. Tun Sie das nicht“, sagte er. „Es gibt viele gute Informationen da draußen, aber es gibt auch schlechte Informationen. Die Fähigkeit, die wir alle entwickeln müssen, ist anerkannt, was glaubwürdig und was nicht ist. Das ist jetzt wichtiger als je zuvor.“
Forscher des VA Palo Alto Health Care Systems, des Beth Israel Deaconess Medical Center, der Harvard University, der University of Minnesota, der Universität von Virginia, Microsoft und Kaiser haben zu dieser Arbeit beigetragen.
Die Studie wurde von der Gordon und Betty Moore Foundation, dem Stanford Clinical Excellence Research Center und dem VA Advanced Fellowship in medizinischen Informatik finanziert.
Stanfords Medizinabteilung unterstützte auch die Arbeit.