Internet

AI Generatif datang untuk penjagaan kesihatan, dan tidak semua orang gembira

AI Generatif, yang boleh mencipta dan menganalisis imej, teks, audio, video dan lain-lain, semakin melangkah ke dalam penjagaan kesihatan, ditekan oleh kedua-dua syarikat Big Tech dan syarikat rintisan.

Google Cloud, bahagian perkhidmatan dan produk awan Google, sedang bekerjasama dengan Highmark Health, sebuah syarikat penjagaan kesihatan bukan untung berpusat di Pittsburgh, pada alat AI Generatif yang direka untuk memperibadikan pengalaman penerimaan pesakit. Bahagian AWS Amazon berkata bahawa mereka sedang berkerja dengan pelanggan yang tidak disebutkan nama untuk menggunakan AI Generatif untuk menganalisis pangkalan data perubatan untuk 'penentu sosial kesihatan'. Dan Microsoft Azure sedang membantu membina sistem AI Generatif untuk Providence, rangkaian penjagaan kesihatan bukan untung, untuk mengotomatikkan pesanan kepada penyedia penjagaan yang dihantar oleh pesakit.

Syarikat rintisan AI Generatif yang terkemuka dalam penjagaan kesihatan termasuk Ambience Healthcare, yang sedang membangunkan aplikasi AI Generatif untuk profesional perubatan; Nabla, pembantu AI ambien untuk pengamal perubatan; dan Abridge, yang mencipta alat analitik untuk dokumentasi perubatan.

Antusiasme meluas terhadap AI Generatif tercermin dalam pelaburan usaha AI Generatif yang menfokuskan kepada penjagaan kesihatan. Secara kolektif, syarikat rintisan AI Generatif dalam penjagaan kesihatan telah mengumpulkan puluhan juta dolar dalam modal ventura setakat ini, dan majoriti besar pelabur kesihatan berkata bahawa AI Generatif telah mempengaruhi strategi pelaburan mereka secara signifikan.

Namun begitu, profesional dan pesakit berkongsi pandangan bahawa AI Generatif yang difokuskan kepada kesihatan mungkin belum bersedia untuk waktu yang sesuai.

AI Generatif mungkin bukan apa yang orang inginkan

Dalam tinjauan Deloitte baru-baru ini, hanya kira-kira separuh (53%) pengguna Amerika Syarikat mengatakan bahawa mereka berpendapat AI Generatif dapat meningkatkan penjagaan kesihatan — sebagai contoh, dengan membuatnya lebih mudah diakses atau memendekkan masa menunggu temujanji. Kurang daripada separuh berkata mereka menjangkakan AI Generatif dapat menjadikan penjagaan perubatan lebih berpatutan.

Andrew Borkowski, ketua pegawai AI di Rangkaian Penjagaan Kesihatan VA Sunshine, sistem kesihatan terbesar Bahagian Veteran Amerika Syarikat, tidak berpendapat bahawa sikap sinis ini tidak berasas. Borkowski memberi amaran bahawa pelaksanaan AI Generatif boleh menjadi prematur disebabkan oleh “kekurangan” yang signifikan — dan kekhawatiran sekitar keberkesanannya.

“Salah satu isu utama dengan AI Generatif adalah ketidakupayaannya untuk menangani pertanyaan perubatan yang kompleks atau kecemasan,” katanya kepada TechCrunch. “Pangkalan pengetahuannya yang terhad — iaitu, ketiadaan maklumat klinik yang terkini — dan kekurangan kepakaran manusia menjadikannya tidak sesuai untuk memberikan nasihat perubatan menyeluruh atau cadangan rawatan.”

Beberapa kajian menunjukkan bahawa terdapat kebenaran pada pandangan tersebut.

Dalam satu kertas dalam jurnal JAMA Pediatrics, chatbot AI Generatif OpenAI, ChatGPT, yang beberapa organisasi kesihatan telah uji untuk kes penggunaan yang terhad, didapati membuat kesilapan mendiagnosis penyakit kanak-kanak sebanyak 83% daripada masa. Dan semasa menguji GPT-4 OpenAI sebagai pembantu diagnostik, doktor di Beth Israel Deaconess Medical Center di Boston mengamati bahawa model tersebut selalu menilai diagnosis yang salah sebagai jawapan teratas hampir dua kali ganda.

AI Generatif hari ini juga menghadapi masalah dengan tugas pentadbiran perubatan yang menjadi sebahagian daripada aliran kerja harian pengamal perubatan. Dalam penilaian MedAlign untuk menilai seberapa baik AI Generatif boleh melakukan perkara seperti merangkum rekod kesihatan pesakit dan mencari catatan, GPT-4 gagal dalam 35% kes.

OpenAI dan banyak pembekal AI Generatif lain memberi amaran untuk tidak bergantung pada model mereka untuk nasihat perubatan. Tetapi Borkowski dan yang lain berkata mereka boleh melakukan lebih. "Bergantung hanya pada AI Generatif untuk penjagaan kesihatan boleh menyebabkan kesilapan diagnosis, rawatan yang tidak sesuai atau situasi yang mengancam nyawa," kata Borkowski.

Jan Egger, yang memimpin terapi berpanduan AI di Institut AI dalam Perubatan Universiti Duisburg-Essen, yang mengkaji aplikasi teknologi baru untuk penjagaan pesakit, berkongsi kebimbangan Borkowski. Beliau percaya bahawa cara yang paling selamat untuk menggunakan AI Generatif dalam penjagaan kesihatan pada masa ini ialah di bawah pengawasan ketat seorang doktor.

"Keputusan tersebut boleh sepenuhnya salah, dan semakin sukar untuk mengekalkan kesedaran akan ini," kata Egger. “Tentu, AI Generatif boleh digunakan, sebagai contoh, untuk menulis awalan surat pelepasan pesakit. Tetapi doktor mempunyai tanggungjawab untuk memeriksanya dan membuat keputusan akhir."

AI Generatif boleh mengekalkan stereotaip

Salah satu cara merosakkan AI Generatif dalam penjagaan kesihatan adalah dengan mengekalkan stereotaip.

Dalam satu kajian 2023 dari Stanford Medicine, sebuah pasukan penyelidik menguji ChatGPT dan chatbot AI Generatif yang lain pada soalan tentang fungsi buah pinggang, kapasiti paru-paru dan ketebalan kulit. Bukan sahaja jawapan ChatGPT sering salah, tetapi para penulis bersama dapati, tetapi juga jawapan tersebut termasuk beberapa keyakinan yang tidak benar yang berpanjangan bahawa terdapat perbezaan biologi antara orang Hitam dan putih — ketidakhbenaran yang diketahui telah membawa penyedia perubatan membuat diagnosis yang salah tentang masalah kesihatan.

Ironinya, pesakit yang paling mungkin didiskriminasi oleh AI Generatif untuk penjagaan kesihatan juga adalah mereka yang paling mungkin menggunakannya.

Orang yang tidak mempunyai liputan kesihatan — terutamanya orang berwarna, menurut satu kajian KFF — lebih bersedia untuk mencuba AI Generatif untuk perkara seperti mencari doktor atau sokongan kesihatan mental, menunjukkan tinjauan Deloitte. Jika cadangan AI tercemar oleh kecenderungan, ia boleh memperburuk ketidaksamaan dalam rawatan.

Walau bagaimanapun, beberapa pakar berhujah bahawa AI Generatif kini sedang meningkat dalam hal ini.

Dalam satu kajian Microsoft yang diterbitkan pada akhir 2023, penyelidik mengatakan mereka mencapai 90.2% ketepatan pada empat ukuran perubatan yang mencabar menggunakan GPT-4. GPT-4 biasa tidak dapat mencapai skor ini. Tetapi, mereka mengatakan, melalui kejuruteraan tarikan — mereka merancang tarikan untuk GPT-4 menghasilkan output tertentu — mereka dapat meningkatkan skor model ini sehingga 16.2 mata peratus. (Microsoft, perlu dicatat, merupakan pelabur utama dalam OpenAI.)

Melebihi chatbot

Tetapi membincangkan chatbot soalan bukanlah satu-satunya perkara yang baik dari AI Generatif. Sesetengah penyelidik mengatakan bahawa pengimejan perubatan dapat mendapat manfaat yang besar dari kuasa AI Generatif.

Pada bulan Julai, sekumpulan saintis membentangkan sistem yang dipanggil deferral keperluan kepada aliran kerja klinikal (CoDoC), dalam satu kajian yang diterbitkan dalam Nature. Sistem ini direka untuk mencari tahu bila pakar pengimejan perubatan harus bergantung pada AI untuk diagnosis berbanding teknik tradisional. CoDoC berjaya melebihi pakar sambil mengurangkan aliran kerja klinikal sebanyak 66%, menurut penulis bersama. 

Pada November, satu pasukan penyelidikan China menunjukkankan Panda, sebuah model AI yang digunakan untuk mengesan lesi pankreas yang berpotensi dalam X-ray. Satu kajian menunjukkan Panda sangat tepat dalam mengklasifikasikan lesi ini, yang sering didapati terlambat untuk campur tangan pembedahan. 

Sungguhpun begitu, Arun Thirunavukarasu, seorang penyelidik klinikal di University of Oxford, berkata bahawa tiada yang unik tentang AI Generatif yang mencegah pelaksanaan dalam tetapan penjagaan kesihatan.

“Aplikasi teknologi AI Generatif yang lebih mundan adalah boleh dicapai dalam jangka pendek dan sederhana, dan termasuk pembetulan teks, dokumentasi automatik catatan dan surat serta penambahbaikan ciri-ciri carian untuk mengoptimumkan rekod elektronik pesakit,” katanya. “Tiada sebab mengapa teknologi AI Generatif — jka berkesan — tidak boleh dilaksanakan dalam peranan seperti ini dengan serta-merta.”

“Sains yang Teliti”

Tetapi walaupun AI Generatif menunjukkan potensi dalam bidang perubatan yang tertentu dan sempit, pakar seperti Borkowski menunjukkan kepada rintangan teknikal dan pematuhan yang harus ditangani sebelum AI Generatif dapat menjadi bermanfaat — dan dipercayai — sebagai alat bantu penjagaan kesihatan keseluruhan.

“Kebimbangan privasi dan keselamatan yang ketara melibatkan penggunaan AI Generatif dalam penjagaan kesihatan,” kata Borkowski. “Sifat sensitif data perubatan dan potensi untuk penyalahgunaan atau akses tidak dibenarkan menimbulkan risiko serius kepada kerahsiaan pesakit dan kepercayaan dalam sistem penjagaan kesihatan. Selain itu, landskap pengawalseliaan dan undang-undang berkaitan dengan penggunaan AI Generatif dalam penjagaan kesihatan masih sedang berkembang, dengan persoalan tentang liabiliti, perlindungan data dan amalan perubatan oleh entiti bukan manusia masih perlu diselesaikan.'

Walaupun demikian, Thirunavukarasu, sebagaimana yakinnya dia tentang AI Generatif dalam penjagaan kesihatan, mengatakan bahawa perlu ada "sains yang teliti" di belakang alat yang berhadapan dengan pesakit.

“Terutamanya tanpa pengawasan langsung oleh doktor, harus ada ujian kawalan rawak pragmatik yang menunjukkan faedah klinikal untuk membuktikan pengegunaan AI Generatif berhadapan dengan pesakit,” katanya. “Pengawasan sewajarnya ke depan adalah penting untuk menangkap sebarang bahaya yang tidak dijangka selepas pelaksanaan pada skala besar.”

Baru-baru ini, Pertubuhan Kesihatan Sedunia mengeluarkan garis panduan yang menyokong jenis sains dan pengawasan manusia terhadap AI Generatif dalam penjagaan kesihatan serta pengenalan pemeriksaan kewangan, kejelasan dan kesan oleh pihak ketiga bebas pada AI ini. Matlamatnya, Pertubuhan Kesihatan Sedunia menyerlahkan dalam garis panduannya, adalah untuk menggalakkan penyertaan dari pelbagai kohort orang dalam pembangunan AI Generatif bagi kesihatan dan peluang untuk menyuarakan kebimbangan serta memberikan masukan sepanjang proses.

“Sehingga bimbangan-bimbangan di atas dipenuhi dan penjagaan yang sesuai diletakkan, pelaksanaan meluas AI Generatif perubatan mungkin … boleh menjadi berbahaya kepada pesakit dan industri penjagaan kesihatan secara keseluruhan,” kata Borkowski.

Related Articles

Back to top button