„KI in klinischer Qualität“: Ein neuer, vielsagender KI-Begriff, der überhaupt nichts bedeutet

Anfang dieses Monats, Lyra Health angekündigt Ein „klinischer“ KI-Chatbot, der Benutzern bei „Herausforderungen“ wie Burnout, Schlafstörungen und Stress hilft. In der Pressemitteilung wird der Begriff „klinisch“ achtzehn Mal erwähnt, darunter „klinisch konzipiert“, „klinisch streng“ und „klinisch geschult“. Für die meisten Menschen, mich eingeschlossen, bedeutet „klinisch“ „medizinisch“. Das Problem ist, dass das nicht der Fall ist Bedeutung medizinisch Tatsächlich bedeutet „klinisch geeignet“ überhaupt nichts.

Marketing auf „klinischer Ebene“ ist ein Beispiel für Blödsinn, das darauf abzielt, Autorität von der Medizin zu übernehmen, ohne dafür Rechenschaftspflicht oder Regulierung zu verlangen. Es steht neben anderen ausgefallenen Marketingausdrücken wie „medizinischer Qualität“ oder „pharmazeutischer Qualität“ für Dinge wie Stahl, Silikon und Nahrungsergänzungsmittel, die Qualität ausdrücken; „verschreibungspflichtige Stärke“ oder „vom Arzt zubereitet“ für Cremes und Salben, die die Wirksamkeit anzeigen; Und „hypoallergen“ Und „Nicht komedogen“ Aufschlussreiche Ergebnisse – eine geringere Wahrscheinlichkeit allergischer Reaktionen bzw. keine Verstopfung der Poren –, für die es keine Standarddefinitionen oder Testverfahren gibt.

Vertreter von Lyra haben dies bestätigt. erzählen Landesnachrichten Dass sie nicht glauben, dass die FDA-Verordnung für ihr Produkt gilt. Die medizinische Sprache in der Pressemitteilung – die den Chatbot als „einen klinisch konzipierten Konversations-KI-Leitfaden“ und „die erste KI-Erfahrung auf klinischer Ebene für die psychiatrische Versorgung“ bezeichnet – soll lediglich dazu beitragen, ihn von der Konkurrenz abzuheben und zu zeigen, wie viel Sorgfalt bei der Entwicklung verwendet wurde, behaupten sie.

Lyra präsentiert sein KI-Tool als Ergänzung zur psychischen Gesundheitsversorgung, die bereits von seinen menschlichen Mitarbeitern wie Therapeuten und Ärzten bereitgestellt wird, und bietet den Benutzern zwischen den Sitzungen rund um die Uhr Unterstützung. Entsprechend ZustandDer Chatbot kann auch frühere klinische Gespräche, oberflächliche Ressourcen wie Entspannungsübungen und nicht spezifizierte Behandlungstechniken nutzen.

Die Beschreibung wirft die offensichtliche Frage auf, was hier mit „klinischer Qualität“ gemeint ist. Obwohl sie sich stark auf das Wort stützt, sagt Lira eindeutig Nein. Das Unternehmen reagierte nicht RandBitte um einen Kommentar oder eine spezifische Definition von „KI in klinischer Qualität“.

„Der Begriff ‚klinische KI‘ hat keine spezifische regulatorische Bedeutung“, sagte George Horvath, Arzt und Rechtsprofessor an der UC Law San Francisco. „Ich habe kein FDA-Dokument gefunden, in dem dieser Begriff erwähnt wird. Er steht sicherlich in keinem Gesetz. Er steht nicht in den Vorschriften.“

Wie bei anderen einprägsamen Marketingbegriffen scheint es so, als ob es sich um etwas handelt, das das Unternehmen selbst geschaffen oder übernommen hat. „Ehrlich gesagt ist es ein Wort, das aus der Branche kommt“, sagt Horvath. „Mir kommt es nicht so vor, als hätte es eine einzige Bedeutung … wahrscheinlich hat jedes Unternehmen seine eigene Definition dessen, was es bedeutet.“

Obwohl „das Wort allein sehr wenig bedeutet“, sagt Valle Wright, ein lizenzierter Psychologe und leitender Direktor des Office of Healthcare Innovation der American Psychological Association, ist es klar, warum Lira sich darauf stützen möchte. „Ich denke, es ist ein Begriff, der von einigen dieser Unternehmen als Zeichen der Differenzierung in einem sehr überfüllten Markt geprägt wurde, obwohl er absichtlich nicht in den Zuständigkeitsbereich der Food and Drug Administration fällt.“ Die FDA überwacht die Qualität, Sicherheit und Wirksamkeit einer Reihe von Lebensmitteln und medizinischen Produkten wie Medikamenten und Implantaten. Es gibt Apps für die psychische Gesundheit, die darunter fallen. Um die Zulassung zu erhalten, müssen Entwickler strenge Standards für Sicherheit und Wirksamkeit einhalten, beispielsweise durch klinische Studien, die beweisen, dass sie das tun, was sie angeblich tun, und zwar auf sichere Weise.

Der FDA-Weg sei für Entwickler teuer und zeitaufwändig, sagt Wright, was diese Art von „Fuzzy Language“ zu einer nützlichen Möglichkeit mache, sich von der Masse abzuheben. Es sei eine Herausforderung für Verbraucher, sagt Wright, aber es sei erlaubt. FDA Der regulatorische Weg „wurde nicht für die neuesten Technologien entwickelt“, sagt sie und fügt hinzu, dass einige der Formulierungen dazu verwendet werden, das Marketing zu unterdrücken. „Das sieht man bei der psychischen Gesundheit nicht wirklich“, sagt Wright. „Es gibt doch niemanden, der von einer kognitiven Verhaltenstherapie auf klinischem Niveau spricht, oder? So reden wir nicht darüber.“

Neben der FDA kann auch die Federal Trade Commission, zu deren Aufgabe es gehört, Verbraucher vor falschem oder irreführendem Marketing zu schützen, entscheiden, dass etwas zu vage und für die Öffentlichkeit irreführend ist. FTC-Vorsitzender Andrew Ferguson angekündigt Eine Untersuchung zu KI-Chatbots Anfang dieses Jahres konzentrierte sich auf deren Auswirkungen auf Minderjährige – wobei die Priorität weiterhin darin bestand, „sicherzustellen, dass die Vereinigten Staaten ihre Rolle als globaler Marktführer in dieser neuen und aufregenden Branche behalten“. Weder die FDA noch die FTC antworteten RandBitte um Stellungnahme.

Während Unternehmen „unbedingt ihren Kuchen haben und ihn essen wollen“, sagt Stefan Gilbert, Professor für Regulierungswissenschaft für Medizinprodukte an der Technischen Universität Dresden in Deutschland, dass die Regulierungsbehörden ihre Anforderungen vereinfachen und die Durchsetzung klären sollten. Wenn Unternehmen solche Ansprüche legal geltend machen könnten (oder ungeschoren davonkämen, sie illegal geltend zu machen), würden sie es tun, sagt er.

Die Undurchsichtigkeit gilt nicht nur für KI – oder für die psychische Gesundheit, die über eine eigene Parade wissenschaftlich klingender „Wellness“-Produkte verfügt, die Strenge ohne Regulierung versprechen. Sprachlicher Unsinn grassiert in der Konsumkultur wie Schimmel auf Brot. „Klinisch getestete“ Kosmetika, „immunstärkende“ Getränke und Vitamine, die Welt versprechen, bewegen sich alle in einer regulatorischen Grauzone, die es Unternehmen ermöglicht, pauschale, wissenschaftlich fundierte Behauptungen aufzustellen, die einer Überprüfung nicht unbedingt standhalten. Es kann ein schmaler Grat sein, aber es ist legal. KI-Tools erben einfach diese sprachliche Geschicklichkeit der Hand.

Unternehmen formulieren die Dinge sorgfältig, um Apps aus dem Feuer der FDA herauszuhalten und ein gewisses Maß an rechtlicher Immunität zu gewährleisten. Es steht nicht nur im Marketingtext, sondern auch im Kleingedruckten, wenn Sie es lesen können. Die meisten KI-Wellness-Tools betonen irgendwo auf ihren Websites oder in den Allgemeinen Geschäftsbedingungen versteckt, dass sie keinen Ersatz für professionelle Pflege darstellen und nicht zur Diagnose oder Behandlung von Krankheiten gedacht sind. Aus rechtlicher Sicht ist die Einstufung als Medizinprodukt jedoch ausgeschlossen Die wachsenden Beweise Dies deutet darauf hin, dass Menschen sie zur Therapie nutzen und ohne klinische Aufsicht auf die Werkzeuge zugreifen können.

Ash, eine Verbrauchertherapie-App von Slingshot AI, wird eindeutig und vage für „emotionale Gesundheit“ vermarktet, während Headspace, ein Konkurrent von Lyra im Bereich Eigentümergesundheit, seinen „KI-Begleiter“ Ebb als „den neuen besten Freund Ihres Geistes“ anpreist. Alle betonen ihren Status als Wellness-Produkte und nicht als therapeutische Hilfsmittel, die sie als medizinische Geräte qualifizieren könnten. Sogar Allzweck-Bots wie ChatGPT tragen ähnliche Warnungen und lehnen jegliche formelle medizinische Verwendung ausdrücklich ab. Die Botschaft ist konsistent: Sprechen und handeln Sie wie eine Therapie, aber sagen Sie, dass dies nicht der Fall ist.

Die Regulierungsbehörden beginnen aufmerksam zu werden. FDA geplant wird am 6. November eine Beratergruppe einberufen, um über KI-gestützte medizinische Geräte für die psychische Gesundheit zu diskutieren. Allerdings ist unklar, ob dies aufgrund des Regierungsstillstands vorankommen wird.

Möglicherweise spielt Lyra jedoch ein riskantes Spiel mit ihrer „klinischen KI“. „Ich denke, dass Diagnose, Behandlung und alles andere, was dazu gehört, in die Definition eines Medizinprodukts einfließen würden“, sagt Horvath.

Gilbert meint unterdessen, dass KI-Unternehmen es so nennen sollten, wie es ist. „Es ist bedeutungslos, gleichzeitig von ‚klinischer Qualität‘ zu sprechen und so zu tun, als würde man keine klinischen Werkzeuge bereitstellen“, sagt er.

Verfolgen Sie Themen und Autoren Von dieser Geschichte aus können Sie mehr davon in Ihrem personalisierten Homepage-Feed sehen und E-Mail-Updates erhalten.


Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"