การศึกษาล่าสุดเผย Microsoft Bing AI Copilot ให้คำแนะนำทางการแพทย์ที่ขัดแย้งกับหลักฐานทางวิทยาศาสตร์ถึง 39% และ 22% อาจก่อให้เกิดอันตรายร้ายแรง ผู้ป่วยควรระมัดระวังและปรึกษาแพทย์โดยตรงเสมอ
Key takeaway
- ผลการศึกษาพบว่า 39% ของคำตอบจาก Microsoft Bing AI Copilot ขัดแย้งกับหลักฐานทางวิทยาศาสตร์ และ 22% ของคำตอบอาจก่อให้เกิดอันตรายร้ายแรงหรือเสียชีวิตได้
- คำตอบจาก AI Copilot มีความซับซ้อนสูง โดยมีคะแนนความยากในการอ่านเฉลี่ยที่ 37 ซึ่งต้องการระดับการศึกษาสูงในการทำความเข้าใจ
- แม้ AI จะมีประโยชน์ในวงการแพทย์ แต่การใช้ chatbot สำหรับข้อมูลสุขภาพยังต้องระมัดระวัง ผู้ป่วยควรปรึกษาแพทย์หรือผู้เชี่ยวชาญโดยตรงแทนการพึ่งพาข้อมูลจาก AI เพียงอย่างเดียว
ผลวิจัยใหม่ชี้ ต้องระวังการใช้ Microsoft Bing AI Copilot สำหรับข้อมูลทางการแพทย์
การศึกษาที่ตีพิมพ์ในวารสาร Scimex เผยว่าคำตอบจำนวนมากของ chatbot ต้องอาศัยความรู้ระดับสูงในการทำความเข้าใจ และเกือบ 40% ของคำแนะนำขัดแย้งกับหลักฐานทางวิทยาศาสตร์ ที่น่าตกใจคือเกือบ 1 ใน 4 ของคำตอบอาจเป็นอันตราย โดยมีความเสี่ยงที่จะก่อให้เกิดผลร้ายแรงหรือถึงขั้นเสียชีวิตหากปฏิบัติตาม
นักวิจัยได้ทดสอบ Microsoft Copilot ด้วยคำถามยอดนิยม 10 ข้อเกี่ยวกับยาที่ใช้บ่อยที่สุด 50 อันดับแรกในสหรัฐฯ ปี 2563 คำถามครอบคลุมเรื่องข้อบ่งใช้ กลไกการออกฤทธิ์ วิธีใช้ ผลข้างเคียง และข้อห้าม
ผลการศึกษาพบว่า:
– คะแนนความยากในการอ่านเฉลี่ยอยู่ที่ 37 ซึ่งหมายถึงต้องมีการศึกษาระดับสูงจึงจะเข้าใจได้
– 54% ของคำตอบสอดคล้องกับหลักฐานทางวิทยาศาสตร์ ขณะที่ 39% ขัดแย้ง
– 42% อาจก่อให้เกิดอันตรายเล็กน้อยถึงปานกลาง
– 36% ไม่ก่อให้เกิดอันตราย
– 22% อาจก่อให้เกิดอันตรายร้ายแรงหรือเสียชีวิต
แม้ AI จะมีบทบาทสำคัญในวงการแพทย์ เช่น การวิเคราะห์ภาพ การค้นหายาใหม่ และช่วยลดภาระงานของบุคลากร แต่การใช้ chatbot สำหรับข้อมูลสุขภาพยังต้องระมัดระวัง
นักวิจัยเน้นย้ำว่าผู้ป่วยควรปรึกษาแพทย์หรือผู้เชี่ยวชาญด้านสุขภาพโดยตรง เนื่องจากคำตอบจาก chatbot อาจไม่ถูกต้องเสมอไป การใช้ chatbot ที่เหมาะสมควรจำกัดอยู่ที่การอธิบายศัพท์แพทย์หรือทำความเข้าใจบริบทของยาตามที่แพทย์สั่ง
ทั้งนี้ ผู้เขียนทำงานให้ Trend Micro แต่ความเห็นในบทความนี้เป็นของผู้เขียนเอง
ที่มา : https://www.prompt-expert.co/news/beware-bing-ai-medical-advice-risks/