Introduction: The chatbot ChatGPT represents a milestone in the interaction between humans and large databases that are accessible via the internet. It facilitates the answering of complex questions by enabling a communication in everyday language. Therefore, it is a potential source of information for those who are affected by rheumatic diseases. The aim of our investigation was to find out whether ChatGPT (version 3.5) is capable of giving qualified answers regarding the application of specific methods of complementary and alternative medicine (CAM) in three rheumatic diseases: rheumatoid arthritis (RA), systemic lupus erythematosus (SLE) and granulomatosis with polyangiitis (GPA). In addition, it was investigated how the answers of the chatbot were influenced by the wording of the question.
Methods: The questioning of ChatGPT was performed in three parts. Part A consisted of an open question regarding the best way of treatment of the respective disease. In part B, the questions were directed towards possible indications for the application of CAM in general in one of the three disorders. In part C, the chatbot was asked for specific recommendations regarding one of three CAM methods: homeopathy, ayurvedic medicine and herbal medicine. Questions in parts B and C were expressed in two modifications: firstly, it was asked whether the specific CAM was applicable at all in certain rheumatic diseases. The second question asked which procedure of the respective CAM method worked best in the specific disease. The validity of the answers was checked by using the ChatGPT reliability score, a Likert scale ranging from 1 (lowest validity) to 7 (highest validity).
Results: The answers to the open questions of part A had the highest validity. In parts B and C, ChatGPT suggested a variety of CAM applications that lacked scientific evidence. The validity of the answers depended on the wording of the questions. If the question suggested the inclination to apply a certain CAM, the answers often lacked the information of missing evidence and were graded with lower score values.
Conclusion: The answers of ChatGPT (version 3.5) regarding the applicability of CAM in selected rheumatic diseases are not convincingly based on scientific evidence. In addition, the wording of the questions affects the validity of the information. Currently, an uncritical application of ChatGPT as an instrument for patient information cannot be recommended.
Zusammenfassung: EINFüHRUNG: Der Chatbot ChatGPT stellt einen Meilenstein in der Interaktion zwischen Menschen und großen, über das Internet zugänglichen Datenbanken dar. Er ermöglicht mit einer Kommunikation in Alltagssprache die Beantwortung komplexer Fragen und ist damit potenziell eine Informationsquelle für Betroffene rheumatischer Erkrankungen. Ziel der Untersuchung war es herauszufinden, ob ChatGPT (Version 3.5) in der Lage ist, qualifizierte Antworten zur Anwendbarkeit von Verfahren der Komplementär- und Alternativmedizin (CAM; Homöopathie, Ayurveda, Phytotherapie) bei rheumatoider Arthritis (RA), systemischem Lupus erythematodes (SLE) und Granulomatose mit Polyangiitis (GPA) zu liefern. Außerdem wurde untersucht, welchen Einfluss die Art der Fragestellung auf die erhaltenen Ergebnisse haben könnte.
Methodik: Die Befragung erfolgte in 3 Abschnitten. In Abschnitt A wurde eine offene Frage zu Behandlungsmöglichkeiten bei einem der 3 Krankheitsbilder gestellt. In Abschnitt B wurde allgemein nach möglichen Anwendungen für CAM bei einer der 3 Erkrankungen gefragt. In Abschnitt C wurden Applikationsmöglichkeiten für die 3 genannten Verfahren für jede Diagnose erfragt. In den Abschnitten B und C wurden die Fragen jeweils in 2 Modifikationen gestellt. Die erste fragte danach, ob das Verfahren überhaupt anwendbar ist. Die zweite Frage erkundigte sich nach konkreten Anwendungen aus den genannten Verfahren. Die Validität der Ergebnisse wurde anhand des ChatGPT Reliability Scores, einer 7‑stufigen Likert-Skala, ausgewertet.
Ergebnisse: Zu den offenen Fragen im Abschnitt A lieferte ChatGPT die validesten Ergebnisse. In B und C wurden zahlreiche CAM-Anwendungen vorgeschlagen, die nicht durch wissenschaftliche Evidenz gestützt sind. In diesen Abschnitten waren die Ergebnisse deutlich von der Art der Fragestellung abhängig. Suggerierte die Frage eine Anwendungsabsicht der CAM, entfielen häufig Hinweise auf die fehlende Evidenz, die Qualität der Antwort wurde in den meisten Fällen schlechter bewertet.
Schlussfolgerung: Die Antworten von ChatGPT zur Anwendung von CAM bei definierten rheumatischen Erkrankungen lassen eine ausreichende wissenschaftliche Evidenz vermissen. Zudem beeinflusst die Art der Fragestellung die Qualität der Aussagen erheblich. Eine kritiklose Anwendung von ChatGPT als Instrument der Patientenschulung kann derzeit nicht empfohlen werden.
Keywords: Artificial intelligence; Ayurvedic medicine; Herbal medicine; Homeopathy; Inflammatory rheumatic diseases.
© 2024. The Author(s).