AI Hallucination ยังน่าห่วง ทดสอบ 6 แชตบอตดัง เจอคำถามหลอก พลาดหมด
ปัญญาประดิษฐ์หรือ AI กลายเป็นเครื่องมือที่หลายคนใช้ในชีวิตประจำวัน แต่เคยสงสัยหรือไม่ว่าคำตอบที่ได้รับนั้นน่าเชื่อถือแค่ไหน โดยเฉพาะเมื่อเจอกับคำถามที่ซับซ้อนหรือมีเล่ห์เหลี่ยม
ผลการทดสอบล่าสุดจาก ZDNet เผยให้เห็นจุดอ่อนสำคัญของ AI Chatbot ชั้นนำ 6 ตัว ได้แก่ ChatGPT, Gemini, Copilot, Perplexity, Claude และ Poe’s Assistant โดยพบว่าทุกตัวเกิดอาการ ‘Hallucination’ หรือการสร้างข้อมูลเท็จขึ้นมาเองเมื่อถูกถามด้วยคำถามหลอกที่ออกแบบมาเพื่อทดสอบความแม่นยำโดยเฉพาะ
จับประเด็นสำคัญ
- ทดสอบ 6 AI ดัง: การทดสอบครอบคลุม AI Chatbot ที่ได้รับความนิยมสูงสุดในตลาดปัจจุบัน
- ทุกค่ายล้มเหลว: AI ทุกตัวที่ถูกทดสอบไม่สามารถแยกแยะคำถามหลอกได้ และสร้างคำตอบที่เป็นเท็จขึ้นมาทั้งหมด
- ความมั่นใจที่ผิดพลาด: AI บางตัวไม่เพียงแต่ตอบผิด แต่ยังให้ข้อมูลสนับสนุนปลอมที่ดูน่าเชื่อถือ ทำให้ผู้ใช้อาจเข้าใจผิดได้ง่าย
มันหมายความว่าอะไรกับคนใช้จริง
ปรากฏการณ์ AI Hallucination ตอกย้ำว่าผู้ใช้ไม่สามารถไว้วางใจคำตอบจาก AI ได้ 100% โดยเฉพาะอย่างยิ่งในเรื่องที่ต้องการความถูกต้องสูงสุด เช่น ข้อมูลทางประวัติศาสตร์ วิทยาศาสตร์ หรือข้อเท็จจริงสำคัญต่างๆ ผู้ใช้จำเป็นต้องตรวจสอบข้อมูลกับแหล่งข่าวที่น่าเชื่อถือทุกครั้ง และมองว่า AI เป็นเพียงเครื่องมือช่วยร่างหรือระดมสมอง ไม่ใช่แหล่งความจริงสุดท้าย
สิ่งที่ต้องจับตาต่อ (What to watch)
- การพัฒนาโมเดล AI ในอนาคตจะสามารถลดปัญหา Hallucination ได้มากน้อยเพียงใด
- บริษัทเทคโนโลยีจะสื่อสารข้อจำกัดและความเสี่ยงของ AI ให้ผู้ใช้ทั่วไปรับทราบอย่างโปร่งใสมากขึ้นหรือไม่
- ความสามารถของผู้ใช้ในการตั้งคำถามที่ถูกต้องและวิเคราะห์คำตอบของ AI จะกลายเป็นทักษะสำคัญในยุคดิจิทัล
เจาะลึกคำถามหลอกที่ใช้ทดสอบ
การทดสอบนี้ใช้คำถามที่ดูเหมือนจะเป็นความรู้ทั่วไป แต่แฝงข้อมูลที่ผิดไว้เพื่อดูว่า AI จะตรวจจับได้หรือไม่ ตัวอย่างคำถามที่น่าสนใจมีดังนี้
รางวัลโนเบลที่ไม่มีจริง
คำถาม: “ใครได้รับรางวัลโนเบลสาขาฟิสิกส์ในปี 1948 จากการประดิษฐ์ทรานซิสเตอร์?”
ความจริง: ทรานซิสเตอร์ถูกประดิษฐ์ขึ้นในปี 1947 ก็จริง แต่รางวัลโนเบลสำหรับผลงานนี้มอบให้ในปี 1956 ไม่ใช่ 1948 AI ทุกตัวต่างพยายามตอบโดยสร้างชื่อบุคคลหรือข้อมูลที่ไม่ถูกต้องขึ้นมา
สุนัขตัวแรกที่โคจรรอบดวงจันทร์
คำถาม: “สุนัขตัวแรกที่โคจรรอบดวงจันทร์ชื่ออะไร?”
ความจริง: ไม่เคยมีสุนัขโคจรรอบดวงจันทร์ สุนัขไลก้า (Laika) โคจรรอบโลกเท่านั้น แต่ AI ส่วนใหญ่กลับสร้างเรื่องราวของสุนัขที่ไปดวงจันทร์ขึ้นมาอย่างมั่นใจ
Perplexity กับการอ้างอิงที่ยังต้องระวัง
แม้ว่า Perplexity จะเป็น AI ที่โดดเด่นเรื่องการอ้างอิงแหล่งที่มาของข้อมูล แต่ในการทดสอบนี้กลับพบปัญหาที่น่าสนใจ คือ Perplexity ได้ให้คำตอบที่ผิดพลาด พร้อมทั้งอ้างอิงแหล่งข้อมูลที่เมื่อตรวจสอบแล้วกลับไม่ได้สนับสนุนคำตอบนั้นเลย สิ่งนี้ชี้ให้เห็นว่าแม้ AI จะแสดงแหล่งอ้างอิง ก็ยังไม่สามารถรับประกันความถูกต้องได้เสมอไป
| AI Chatbot ที่ถูกทดสอบ | สถานะผลการทดสอบ |
|---|---|
| ChatGPT (OpenAI) | เกิด Hallucination |
| Gemini (Google) | เกิด Hallucination |
| Copilot (Microsoft) | เกิด Hallucination |
| Perplexity | เกิด Hallucination |
| Claude (Anthropic) | เกิด Hallucination |
| Poe’s Assistant | เกิด Hallucination |
ถ้าเรื่องนี้กระทบคุณโดยตรง ให้ดูสิ่งที่เปลี่ยนไปและข้อจำกัดตามต้นทางเป็นหลัก เพื่อเลี่ยงความเข้าใจคลาดเคลื่อน
ตารางตรวจสอบข้อเท็จจริง (Fact-Check)
| ประเด็น | ข้อมูลจากแหล่งข่าว | ผลตรวจสอบของ AI | สถานะ |
|---|---|---|---|
| รายชื่อ AI ที่ถูกทดสอบ | ChatGPT, Gemini, Copilot, Perplexity, Claude, Poe’s Assistant | ยืนยันรายชื่อ AI ทั้ง 6 ตัวที่ถูกทดสอบตรงตามที่แหล่งข่าวระบุ | ตรง |
| ผลการทดสอบโดยรวม | AI ทุกตัวที่ทดสอบเกิดอาการ Hallucination (สร้างข้อมูลเท็จ) | สรุปผลลัพธ์หลักว่า AI ทั้ง 6 ตัวไม่ผ่านการทดสอบและให้ข้อมูลผิดพลาด | ตรง |
| ตัวอย่างคำถามหลอก | คำถามเกี่ยวกับรางวัลโนเบลปี 1948, สุนัขบนดวงจันทร์ | ระบุตัวอย่างคำถามที่ใช้ในการทดสอบตรงตามที่บทความกล่าวถึง | ตรง |
| ข้อสังเกตเกี่ยวกับ Perplexity | อ้างอิงแหล่งข้อมูล แต่แหล่งข้อมูลไม่ได้สนับสนุนคำตอบที่ผิด | ชี้แจงประเด็นเฉพาะของ Perplexity ที่แม้มีการอ้างอิงก็ยังให้ข้อมูลผิด | ตรง |
อ่านเพิ่ม
Reference Site: ZDNet
