loading...
AI digunakan untuk diagnosis penyakit pasien. FOTO/ DAILY
JAKARTA - Data akurat untuk perawatan pasien di rumah sakit sangat penting untuk menentukan penyakit pasien. Satu kesalahan saja bisa berakibat kematian misalnya jika alergi pasien tidak dicantumkan dalam catatan.
Whisper ditemukan menghasilkan transkripsi yang mengandung halusinasi, menyebabkan catatan pasien tidak akurat dan berisiko.
Seperti dilansir dari Mirror, meskipun hanya 1% transkripsi yang terpengaruh, ini berarti ada sekitar 70.000 transkripsi yang tidak akurat dari 7 juta rekaman percakapan.
Rekaman audio dihapus setelah transkripsi karena alasan privasi, sehingga koreksi kesalahan hampir tidak mungkin dilakukan.
Kini muncul laporan Whisper kecerdasan buatan (AI) yang dikembangkan OpenAI untuk mencatat pasien yang kedapatan mengalami halusinasi yang menimbulkan risiko bagi pasien.
Whisper digunakan dalam aplikasi yang dikembangkan oleh Nabla yang merekam sebelum menghasilkan transkripsi percakapan antara dokter dan pasien.
Dalam laporan Associated Press, sebanyak 1% transkripsi yang dihasilkan mengandung halusinasi yang menyebabkan pencatatan pasien tidak akurat.
Angka 1% tampaknya kecil namun Nabla telah mencatat lebih dari 7 juta percakapan dan ini berarti 70.000 transkrip yang tidak akurat telah dihasilkan.
Yang lebih serius lagi, para peneliti menemukan bahwa Whisper juga menciptakan penyakit yang tidak ada.
Follow WhatsApp Channel SINDOnews untuk Berita Terbaru Setiap Hari
Dapatkan berita terkini dan kejutan menarik dari SINDOnews.com, Klik Disini untuk mendaftarkan diri anda sekarang juga!
Baca Berita Terkait Lainnya