nccvoice.com

Berita Kesehatan DI Dunia

Para ilmuwan khawatir bahwa hanya dengan sedikit penyesuaian terhadap data, jaringan saraf dapat tertipu untuk melakukan “serangan permusuhan” yang menyesatkan daripada membantu. 

Tahun lalu, Food and Drug Administration menyetujui alat yang dapat menangkap gambar retina Anda dan secara otomatis mendeteksi tanda-tanda kebutaan diabetes.

Generasi baru teknologi kecerdasan buatan ini menyebar dengan cepat di seluruh bidang medis, ketika para ilmuwan mengembangkan sistem yang dapat mengidentifikasi tanda-tanda penyakit dan penyakit dalam berbagai gambar , dari sinar-X paru-paru hingga pemindaian CAT otak. Sistem ini berjanji untuk membantu dokter mengevaluasi pasien lebih efisien, dan lebih murah, daripada di masa lalu.

Bentuk serupa dari kecerdasan buatan cenderung bergerak melampaui rumah sakit ke dalam sistem komputer yang digunakan oleh regulator perawatan kesehatan, perusahaan penagihan dan penyedia asuransi. Sama seperti AI akan membantu dokter memeriksa mata, paru-paru, dan organ-organ lain Anda, itu akan membantu penyedia asuransi menentukan pembayaran penggantian dan biaya polis.

Idealnya, sistem seperti itu akan meningkatkan efisiensi sistem perawatan kesehatan. Tetapi mereka mungkin membawa konsekuensi yang tidak diinginkan, sekelompok peneliti di Harvard dan MIT memperingatkan.

Dalam sebuah makalah yang diterbitkan pada hari Kamis di jurnal Science , para peneliti meningkatkan prospek “serangan permusuhan” – manipulasi yang dapat mengubah perilaku sistem AI menggunakan potongan-potongan kecil data digital. Dengan mengubah beberapa piksel pada pemindaian paru-paru, misalnya, seseorang dapat membohongi sistem AI untuk melihat penyakit yang tidak benar-benar ada, atau tidak melihat yang sebenarnya.

Pengembang dan regulator perangkat lunak harus mempertimbangkan skenario seperti itu, karena mereka membangun dan mengevaluasi teknologi AI di tahun-tahun mendatang, para penulis berpendapat. Kekhawatirannya kurang bahwa peretas dapat menyebabkan pasien salah didiagnosis, meskipun potensi itu ada. Lebih mungkin bahwa dokter, rumah sakit dan organisasi lain dapat memanipulasi AI dalam penagihan atau perangkat lunak asuransi dalam upaya untuk memaksimalkan uang yang datang kepada mereka.

Samuel Finlayson, seorang peneliti di Harvard Medical School dan MIT dan salah satu penulis makalah ini, memperingatkan bahwa karena begitu banyak uang berpindah tangan di industri perawatan kesehatan, para pemangku kepentingan telah melakukan “bilking” sistem dengan secara halus mengubah kode tagihan dan data lainnya di komputer sistem yang melacak kunjungan perawatan kesehatan. AI bisa memperburuk masalah.

“Ambiguitas yang melekat dalam informasi medis, ditambah dengan insentif keuangan yang sering bersaing, memungkinkan keputusan berisiko tinggi untuk berayun pada bit informasi yang sangat halus,” katanya.

Makalah baru menambah rasa keprihatinan yang berkembang tentang kemungkinan serangan seperti itu, yang dapat ditujukan untuk segala sesuatu dari layanan pengenalan wajah dan mobil tanpa pengemudi hingga pemindai iris dan pembaca sidik jari.

Sebuah serangan permusuhan mengeksploitasi aspek mendasar dari cara banyak sistem AI dirancang dan dibangun. Semakin, AI didorong oleh jaringan saraf , sistem matematika yang kompleks yang mempelajari tugas-tugas sebagian besar sendiri dengan menganalisis sejumlah besar data.

Dengan menganalisis ribuan pemindaian mata, misalnya, jaringan saraf dapat belajar mendeteksi tanda-tanda kebutaan diabetes. “Pembelajaran mesin” ini terjadi dalam skala yang sangat besar – perilaku manusia didefinisikan oleh bagian-bagian data yang tak terhitung jumlahnya – sehingga dapat menghasilkan perilaku yang tidak terduga sendiri.

Pada tahun 2016, sebuah tim di Carnegie Mellon menggunakan pola yang dicetak pada bingkai kacamata untuk mengelabui sistem pengenalan wajah dengan berpikir bahwa pemakainya adalah selebritas. Ketika para peneliti mengenakan bingkai, sistem mengira mereka untuk orang-orang terkenal, termasuk Milla Jovovich dan John Malkovich.

Sekelompok peneliti Cina melakukan trik serupa dengan memproyeksikan cahaya inframerah dari sisi bawah topi ke wajah siapa pun yang memakai topi itu. Cahaya itu tidak terlihat oleh pemakainya, tetapi itu bisa menipu sistem pengenalan wajah untuk berpikir bahwa pemakainya adalah, katakanlah, musisi Moby, yang berkulit putih, daripada seorang ilmuwan Asia.

Para peneliti juga memperingatkan bahwa serangan permusuhan dapat menipu mobil yang mengemudi sendiri untuk melihat hal-hal yang tidak ada. Dengan membuat perubahan kecil pada rambu-rambu jalan, mereka telah menipu mobil untuk mendeteksi tanda hasil alih-alih tanda berhenti.

Akhir tahun lalu, sebuah tim di NYU’s Tandon School of Engineering menciptakan sidik jari virtual yang mampu menipu pembaca sidik jari 22 persen dari waktu. Dengan kata lain, 22 persen dari semua ponsel atau PC yang menggunakan pembaca seperti itu berpotensi dapat dibuka.

Implikasinya mendalam, mengingat semakin meningkatnya prevalensi perangkat keamanan biometrik dan sistem AI lainnya. India telah menerapkan sistem identitas berbasis sidik jari terbesar di dunia, untuk mendistribusikan tunjangan dan layanan pemerintah. Bank memperkenalkan akses pengenalan wajah ke Perusahaan ATM seperti Waymo, yang dimiliki oleh perusahaan induk yang sama dengan Google, sedang menguji mobil self-driving di jalan umum.

Sekarang, Mr. Finlayson dan rekan-rekannya telah mengangkat alarm yang sama di bidang medis: Ketika regulator, penyedia asuransi dan perusahaan penagihan mulai menggunakan AI dalam sistem perangkat lunak mereka, bisnis dapat belajar untuk bermain algoritma yang mendasarinya.

Jika perusahaan asuransi menggunakan AI untuk mengevaluasi pemindaian medis, misalnya, rumah sakit dapat memanipulasi pemindaian dalam upaya untuk meningkatkan pembayaran. Jika regulator membangun sistem AI untuk mengevaluasi teknologi baru, pembuat perangkat dapat mengubah gambar dan data lainnya dalam upaya untuk menipu sistem agar memberikan persetujuan pengaturan.

Dalam makalah mereka, para peneliti menunjukkan bahwa, dengan mengubah sejumlah kecil piksel dalam gambar lesi kulit jinak, sistem AI diagnostik dapat diakali untuk mengidentifikasi lesi sebagai ganas. Hanya memutar gambar juga dapat memiliki efek yang sama, mereka menemukan.

Perubahan kecil pada deskripsi tertulis tentang kondisi pasien juga dapat mengubah diagnosis AI: “Penyalahgunaan alkohol” dapat menghasilkan diagnosis yang berbeda dari “ketergantungan alkohol,” dan “sakit pinggang” dapat menghasilkan diagnosis yang berbeda dari “sakit punggung.”

Pada gilirannya, mengubah diagnosis semacam itu dengan satu atau lain cara dapat dengan mudah menguntungkan perusahaan asuransi dan lembaga perawatan kesehatan yang pada akhirnya mendapat keuntungan darinya. Setelah AI berakar dalam pada sistem perawatan kesehatan, para peneliti berpendapat, bisnis secara bertahap akan mengadopsi perilaku yang menghasilkan uang paling banyak.

Hasil akhirnya bisa membahayakan pasien, kata Mr. Finlayson. Perubahan yang dilakukan dokter terhadap pemindaian medis atau data pasien lainnya dalam upaya untuk memuaskan AI yang digunakan oleh perusahaan asuransi dapat berakhir dengan catatan permanen pasien dan memengaruhi keputusan di masa mendatang.

Sudah dokter, rumah sakit dan organisasi lain kadang-kadang memanipulasi sistem perangkat lunak yang mengontrol miliaran dolar bergerak di industri. Dokter, misalnya, telah secara halus mengubah kode tagihan – misalnya, menggambarkan sinar-X sederhana sebagai pemindaian yang lebih rumit – dalam upaya meningkatkan pembayaran.

Hamsa Bastani, asisten profesor di Wharton Business School di University of Pennsylvania, yang telah mempelajari manipulasi sistem perawatan kesehatan, percaya itu adalah masalah yang signifikan. “Beberapa perilaku tidak disengaja, tetapi tidak semuanya,” katanya.

Sebagai seorang spesialis dalam sistem pembelajaran mesin, ia mempertanyakan apakah pengenalan AI akan memperburuk masalah. Melakukan serangan permusuhan di dunia nyata itu sulit, dan masih belum jelas apakah regulator dan perusahaan asuransi akan mengadopsi jenis algoritma pembelajaran mesin yang rentan terhadap serangan semacam itu.

Tapi, dia menambahkan, ada baiknya mengawasi. “Selalu ada konsekuensi yang tidak diinginkan, terutama dalam perawatan kesehatan,” katanya.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *