Eksperci AI omawiają, jak zintegrować solidną sztuczną inteligencję z opieką zdrowotną, dlaczego interdyscyplinarna współpraca ma kluczowe znaczenie, a potencjał generatywnej sztucznej inteligencji w badaniach.
Feifei Li i Lloyd Minor przedstawili uwagi otwierające na inauguracyjnym sympozjum Raise Health w Stanford University School of Medicine 14 maja
Większość ludzi schwytanych przez sztuczną inteligencję miała jakiś moment „aha”, otwierając swoje umysły na świat możliwości. Podczas inauguracyjnego sympozjum Raise Health w dniu 14 maja Lloyd Minor, MD, dziekan Stanford University School of Medicine i wiceprezes ds. Medycznych na Uniwersytecie Stanforda, podzielił się swoją perspektywą.
Kiedy jeden ciekawy nastolatek został poproszony o podsumowanie jego ustaleń dotyczących ucha wewnętrznego, zwrócił się do generatywnej sztucznej inteligencji. „Zapytałem:„ Co to jest zespół Superior Canal Dhiscention? ” Minor powiedział prawie 4000 uczestników sympozjum. W ciągu kilku sekund pojawiło się kilka akapitów.
„Są dobre, naprawdę dobre” - powiedział. „Informacje te zostały skompilowane w zwięzły, ogólnie dokładny i jasno priorytetowy opis choroby. To jest dość niezwykłe. ”
Wielu podzieliło się podekscytowaniem Minor na półdniowym wydarzeniu, które było przerostem Inicjatywy Raise Health Initiative, projektu uruchomionego przez Stanford University School of Medicine i Stanford Institute for Human Concentent Human Center Intelligence (HAI), aby poprowadzić odpowiedzialne wykorzystanie sztucznego inteligencja. Inteligencja w badaniach biomedycznych, edukacji i opiece nad pacjentem. Mówcy zbadali, co to znaczy wdrożenie sztucznej inteligencji w medycynie w sposób, który jest nie tylko przydatny dla lekarzy i naukowców, ale także przejrzysty, sprawiedliwy i sprawiedliwy dla pacjentów.
„Uważamy, że jest to technologia, która zwiększa ludzkie możliwości”, powiedział Fei-Fei Li, profesor informatyki w Stanford School of Engineering, dyrektor Raise Health z mniejszym projektem i współreżyserowym HAI. Generowanie po generacji mogą pojawić się nowe technologie: od nowych sekwencji molekularnych antybiotyków po mapowanie różnorodności biologicznej i ujawnianie ukrytych części fundamentalnej biologii, AI przyspiesza odkrycie naukowe. Ale nie wszystko jest korzystne. „Wszystkie te aplikacje mogą mieć niezamierzone konsekwencje i potrzebujemy informatyków, którzy opracowują i wdrażają [sztuczną inteligencję] odpowiedzialnie, współpracując z różnymi zainteresowanymi stronami, od lekarzy i etyków… po ekspertów bezpieczeństwa i nie tylko”, mówi. „Inicjatywy takie jak podnoszenie zdrowia pokazują nasze zaangażowanie w to”.
Konsolidacja trzech dywizji medycyny Stanford - School of Medicine, Stanford Health Care i Stanford University School of Child Health Medicine - i jej powiązania z innymi częściami Uniwersytetu Stanforda postawiły w pozycji, w której eksperci zmagają się z rozwojem Sztuczna inteligencja. Kwestie zarządzania i integracji w dziedzinie opieki zdrowotnej i medycyny. Medycyna, piosenka poszła.
„Jesteśmy dobrze przygotowani do bycia pionierem w opracowywaniu i odpowiedzialnym wdrażaniu sztucznej inteligencji, od podstawowych odkryć biologicznych po poprawę rozwoju leków i zwiększenie wydajności badań klinicznych, po faktyczne świadczenie usług opieki zdrowotnej. opieka zdrowotna. Sposób ustawiony system opieki zdrowotnej - powiedział.
Kilku mówców podkreśliło prostą koncepcję: skupienie się na użytkowniku (w tym przypadku pacjenta lub lekarza) i wszystko inne nastąpi. „To stawia pacjenta w centrum wszystkiego, co robimy” - powiedziała dr Lisa Lehmann, dyrektor bioetyki w Brigham and Women's Hospital. „Musimy wziąć pod uwagę ich potrzeby i priorytety”.
Od lewej do prawej: kotwica STAT News Mohana Ravindranath; Jessica Peter Lee z Microsoft Research; Sylvia plevritis, profesor nauki o danych biomedycznych, omawia rolę sztucznej inteligencji w badaniach medycznych. Steve Fish
Prelegenci w panelu, w tym Lehmann, bioetyk medyczny Uniwersytetu Stanford Mildred Cho, MD i dyrektor kliniczny Google Michael Howell, MD, zauważyli złożoność systemów szpitalnych, podkreślając potrzebę zrozumienia ich celu przed jakąkolwiek interwencją. Wdrożenie go i upewnij się, że wszystkie opracowane systemy są włączające i słuchaj ludzi, których są zaprojektowane, aby pomóc.
Jednym z kluczy jest przejrzystość: wyjaśnia, skąd pochodzą dane używane do szkolenia algorytmu, jaki jest pierwotny cel algorytmu i czy przyszłe dane pacjentów będą nadal pomóc w nauce algorytmu, między innymi.
„Próba przewidywania problemów etycznych, zanim staną się poważni [oznacza] znalezienie idealnego słodkiego miejsca, w którym wiesz wystarczająco dużo o technologii, aby mieć pewność siebie, ale nie wcześniej [problem] rozprzestrzenia się i rozwiązuje go wcześniej”. , Powiedział Denton Char. Kandydat nauk medycznych, profesor nadzwyczajny Departamentu Anestezjologii Pediatrycznej, medycyny okołooperacyjnej i medycyny przeciwbólowej. Mówi, że jednym kluczowym krokiem jest identyfikacja wszystkich zainteresowanych stron, na które technologia mogą mieć wpływ i ustalenie, w jaki sposób sami chcieliby odpowiedzieć na te pytania.
Jesse Ehrenfeld, MD, prezes American Medical Association, omawia cztery czynniki, które napędzają przyjęcie dowolnego cyfrowego narzędzia zdrowotnego, w tym tych napędzanych sztuczną inteligencją. Czy to jest skuteczne? Czy to zadziała w mojej instytucji? Kto płaci? Kto jest odpowiedzialny?
Michael Pfeffer, MD, dyrektor ds. Informacji Stanford Health Care, zacytował ostatni przykład, w którym wiele problemów zostało przetestowanych wśród pielęgniarek w szpitalach Stanford. Klinicyści są wspierani przez duże modele językowe, które zapewniają początkowe adnotacje dla nadchodzących wiadomości pacjentów. Chociaż projekt nie jest doskonały, lekarze, którzy pomogli opracować raport technologiczny, że model łagodzi ich obciążenie.
„Zawsze skupiamy się na trzech ważnych rzeczach: bezpieczeństwie, wydajności i włączeniu. Jesteśmy lekarzami. Złożyliśmy przysięgę, aby „nie wyrządzić krzywdy”, powiedziała Nina Vasan, asystentka klinicznego profesora psychiatrii i nauk behawioralnych, która dołączyła do Char i Pfeffer, dołączyła do grupy. „To powinien być pierwszy sposób oceny tych narzędzi”.
Dr Nigam Shah, MBBS, profesor medycyny i danych biomedycznych, rozpoczął dyskusję od szokującej statystyki pomimo uczciwego ostrzeżenia dla publiczności. „Mówię w ogólnych warunkach i liczbach, a czasem są bardzo bezpośrednie” - powiedział.
Według Shaha sukces AI zależy od naszej zdolności do jej skalowania. „Przeprowadzenie odpowiednich badań naukowych nad modelem zajmuje około 10 lat, a jeśli każdy z 123 programów stypendialnych i rezydencji chciał przetestować i wdrożyć model na tym poziomie rygorystycznym, bardzo trudno byłoby zrobić prawidłową naukę, ponieważ obecnie organizujemy Nasze wysiłki i [test]] kosztowałoby 138 miliardów dolarów, aby upewnić się, że każda z naszych witryn działa poprawnie - powiedział Shah. „Nie możemy sobie na to pozwolić. Musimy więc znaleźć sposób na rozszerzenie i musimy rozwinąć i robić dobrą naukę. Umiejętności rygorystyczne są w jednym miejscu, a umiejętności skalowania są w innym, więc będziemy potrzebować tego rodzaju partnerstwa. ”
Współpracownik Dean Yuan Ashley i Mildred Cho (odbiór) uczestniczyli w Warsztatach Zdrowia Raise. Steve Fish
Niektórzy mówcy z sympozjum stwierdzili, że można to osiągnąć poprzez partnerstwa publiczno-prywatne, takie jak niedawne zarządzenie wykonawcze Białego Domu w sprawie bezpiecznego, bezpiecznego i godnego zaufania rozwoju i wykorzystania sztucznej inteligencji oraz konsorcjum sztucznej inteligencji w zakresie opieki zdrowotnej (ChAI). ).
„Partnerstwo publiczno-prywatne z największym potencjałem jest między akademią, sektorem prywatnym i sektorem publicznym”-powiedziała Laura Adams, starszy doradca National Academy of Medicine. Zauważyła, że rząd może zapewnić zaufanie publiczne, a akademickie centra medyczne mogą. Zapewnij zasadność, a sektor prywatny może zapewnić wiedzę techniczną i czas komputerowy. „Wszyscy jesteśmy lepsi niż ktokolwiek z nas i zdajemy sobie sprawę, że… nie możemy się modlić, aby uświadomić sobie potencjał [sztucznej inteligencji], chyba że rozumiemy, jak wchodzić w interakcje”.
Kilku mówców stwierdziło, że AI ma również wpływ na badania, niezależnie od tego, czy naukowcy używają go do eksploracji dogmatu biologicznego, przewidywania nowych sekwencji i struktur syntetycznych cząsteczek w celu wsparcia nowych metod leczenia, a nawet pomaga im podsumować lub pisać dokumenty naukowe.
„To okazja, aby zobaczyć nieznane”-powiedziała Jessica Mega, MD, kardiolog z Stanford University School of Medicine i współzałożyciel Alphabet's Verly. Mega wspomniała o obrazowaniu hiperspektralnym, które przechwytuje obraz obrazu niewidocznego dla ludzkiego oka. Chodzi o to, aby wykorzystać sztuczną inteligencję do wykrywania wzorców w slajdach patologii, których ludzie nie widzą, które wskazują na chorobę. „Zachęcam ludzi do przyjęcia nieznanego. Myślę, że wszyscy tutaj znają kogoś z jakimś stanem chorobowym, który potrzebuje czegoś poza tym, co możemy dziś zapewnić - powiedziała Mejia.
Paneliści zgodzili się również, że systemy sztucznej inteligencji zapewnią nowe sposoby identyfikowania i zwalczania stronniczych podejmowania decyzji, czy to, czy to ludzie, czy sztuczna inteligencja, z możliwością identyfikacji źródła stronniczości.
„Zdrowie to coś więcej niż opieka medyczna” - zgodziło się kilku panelistów. Mówcy podkreślali, że naukowcy często pomijają społeczne determinanty zdrowia, takie jak status społeczno -ekonomiczny, kod pocztowy, poziom wykształcenia oraz rasa i pochodzenie etniczne, przy zbieraniu danych integracyjnych i rekrutacji uczestników do badań. „AI jest tak samo skuteczna, jak dane, na których model jest szkolony”, powiedziała Michelle Williams, profesor epidemiologii na Harvard University i profesor epidemiologii i zdrowia ludności w Stanford University School of Medicine. „Jeśli zrobimy to, co staramy się robić. Popraw wyniki zdrowotne i wyeliminować nierówności, musimy upewnić się, że gromadzimy wysokiej jakości dane dotyczące ludzkich zachowań oraz środowiska społecznego i naturalnego. ”
Natalie Pageler, MD, profesor kliniczny pediatrii i medycyny, powiedziała, że zagregowane dane dotyczące raka często wyklucza dane dotyczące kobiet w ciąży, tworząc nieuniknione uprzedzenia w modelach i zaostrzając istniejące różnice w opiece zdrowotnej.
Dr David Magnus, profesor pediatrii i medycyny, powiedział, że jak każda nowa technologia, sztuczna inteligencja może albo poprawić sytuację na wiele sposobów, albo pogorszyć je. Ryzyko, jak powiedział Magnus, polega na tym, że systemy sztucznej inteligencji dowiedzą się o niesprawiedliwych wynikach zdrowotnych napędzanych przez społeczne determinanty zdrowia i wzmocnią te wyniki poprzez ich produkcję. „Sztuczna inteligencja to lustro, które odzwierciedla społeczeństwo, w którym żyjemy” - powiedział. „Mam nadzieję, że za każdym razem, gdy będziemy mieć okazję rzucić światło na problem - aby utrzymać lustro dla siebie - będzie to motywacja do poprawy sytuacji”.
Jeśli nie byłeś w stanie uczestniczyć w warsztatach Raise Health, można znaleźć tutaj nagranie sesji.
Stanford University School of Medicine to zintegrowany akademicki system opieki zdrowotnej składający się z systemów medycyny Stanford University School of Medicine oraz systemów opieki zdrowotnej dla dorosłych i pediatrycznych. Razem zdają sobie sprawę z pełnego potencjału biomedycyny poprzez badania współpracy, edukację i kliniczną opiekę nad pacjentem. Aby uzyskać więcej informacji, odwiedź med.stanford.edu.
Nowy model sztucznej inteligencji pomaga lekarzom i pielęgniarkom w szpitalu Stanford w współpracy w celu poprawy opieki nad pacjentem.
Czas po: 19-2024 lipca