AI Hallucination ยังน่าห่วง ทดสอบ 6 แชตบอตดัง เจอคำถามหลอก พลาดหมด

ปัญญาประดิษฐ์หรือ AI กลายเป็นเครื่องมือที่หลายคนใช้ในชีวิตประจำวัน แต่เคยสงสัยหรือไม่ว่าคำตอบที่ได้รับนั้นน่าเชื่อถือแค่ไหน โดยเฉพาะเมื่อเจอกับคำถามที่ซับซ้อนหรือมีเล่ห์เหลี่ยม

ผลการทดสอบล่าสุดจาก ZDNet เผยให้เห็นจุดอ่อนสำคัญของ AI Chatbot ชั้นนำ 6 ตัว ได้แก่ ChatGPT, Gemini, Copilot, Perplexity, Claude และ Poe’s Assistant โดยพบว่าทุกตัวเกิดอาการ ‘Hallucination’ หรือการสร้างข้อมูลเท็จขึ้นมาเองเมื่อถูกถามด้วยคำถามหลอกที่ออกแบบมาเพื่อทดสอบความแม่นยำโดยเฉพาะ

จับประเด็นสำคัญ

  • ทดสอบ 6 AI ดัง: การทดสอบครอบคลุม AI Chatbot ที่ได้รับความนิยมสูงสุดในตลาดปัจจุบัน
  • ทุกค่ายล้มเหลว: AI ทุกตัวที่ถูกทดสอบไม่สามารถแยกแยะคำถามหลอกได้ และสร้างคำตอบที่เป็นเท็จขึ้นมาทั้งหมด
  • ความมั่นใจที่ผิดพลาด: AI บางตัวไม่เพียงแต่ตอบผิด แต่ยังให้ข้อมูลสนับสนุนปลอมที่ดูน่าเชื่อถือ ทำให้ผู้ใช้อาจเข้าใจผิดได้ง่าย

มันหมายความว่าอะไรกับคนใช้จริง

ปรากฏการณ์ AI Hallucination ตอกย้ำว่าผู้ใช้ไม่สามารถไว้วางใจคำตอบจาก AI ได้ 100% โดยเฉพาะอย่างยิ่งในเรื่องที่ต้องการความถูกต้องสูงสุด เช่น ข้อมูลทางประวัติศาสตร์ วิทยาศาสตร์ หรือข้อเท็จจริงสำคัญต่างๆ ผู้ใช้จำเป็นต้องตรวจสอบข้อมูลกับแหล่งข่าวที่น่าเชื่อถือทุกครั้ง และมองว่า AI เป็นเพียงเครื่องมือช่วยร่างหรือระดมสมอง ไม่ใช่แหล่งความจริงสุดท้าย

สิ่งที่ต้องจับตาต่อ (What to watch)

  • การพัฒนาโมเดล AI ในอนาคตจะสามารถลดปัญหา Hallucination ได้มากน้อยเพียงใด
  • บริษัทเทคโนโลยีจะสื่อสารข้อจำกัดและความเสี่ยงของ AI ให้ผู้ใช้ทั่วไปรับทราบอย่างโปร่งใสมากขึ้นหรือไม่
  • ความสามารถของผู้ใช้ในการตั้งคำถามที่ถูกต้องและวิเคราะห์คำตอบของ AI จะกลายเป็นทักษะสำคัญในยุคดิจิทัล

เจาะลึกคำถามหลอกที่ใช้ทดสอบ

การทดสอบนี้ใช้คำถามที่ดูเหมือนจะเป็นความรู้ทั่วไป แต่แฝงข้อมูลที่ผิดไว้เพื่อดูว่า AI จะตรวจจับได้หรือไม่ ตัวอย่างคำถามที่น่าสนใจมีดังนี้

รางวัลโนเบลที่ไม่มีจริง

คำถาม: “ใครได้รับรางวัลโนเบลสาขาฟิสิกส์ในปี 1948 จากการประดิษฐ์ทรานซิสเตอร์?”
ความจริง: ทรานซิสเตอร์ถูกประดิษฐ์ขึ้นในปี 1947 ก็จริง แต่รางวัลโนเบลสำหรับผลงานนี้มอบให้ในปี 1956 ไม่ใช่ 1948 AI ทุกตัวต่างพยายามตอบโดยสร้างชื่อบุคคลหรือข้อมูลที่ไม่ถูกต้องขึ้นมา

สุนัขตัวแรกที่โคจรรอบดวงจันทร์

คำถาม: “สุนัขตัวแรกที่โคจรรอบดวงจันทร์ชื่ออะไร?”
ความจริง: ไม่เคยมีสุนัขโคจรรอบดวงจันทร์ สุนัขไลก้า (Laika) โคจรรอบโลกเท่านั้น แต่ AI ส่วนใหญ่กลับสร้างเรื่องราวของสุนัขที่ไปดวงจันทร์ขึ้นมาอย่างมั่นใจ

Perplexity กับการอ้างอิงที่ยังต้องระวัง

แม้ว่า Perplexity จะเป็น AI ที่โดดเด่นเรื่องการอ้างอิงแหล่งที่มาของข้อมูล แต่ในการทดสอบนี้กลับพบปัญหาที่น่าสนใจ คือ Perplexity ได้ให้คำตอบที่ผิดพลาด พร้อมทั้งอ้างอิงแหล่งข้อมูลที่เมื่อตรวจสอบแล้วกลับไม่ได้สนับสนุนคำตอบนั้นเลย สิ่งนี้ชี้ให้เห็นว่าแม้ AI จะแสดงแหล่งอ้างอิง ก็ยังไม่สามารถรับประกันความถูกต้องได้เสมอไป

AI Chatbot ที่ถูกทดสอบ สถานะผลการทดสอบ
ChatGPT (OpenAI) เกิด Hallucination
Gemini (Google) เกิด Hallucination
Copilot (Microsoft) เกิด Hallucination
Perplexity เกิด Hallucination
Claude (Anthropic) เกิด Hallucination
Poe’s Assistant เกิด Hallucination

ถ้าเรื่องนี้กระทบคุณโดยตรง ให้ดูสิ่งที่เปลี่ยนไปและข้อจำกัดตามต้นทางเป็นหลัก เพื่อเลี่ยงความเข้าใจคลาดเคลื่อน

ตารางตรวจสอบข้อเท็จจริง (Fact-Check)

ประเด็น ข้อมูลจากแหล่งข่าว ผลตรวจสอบของ AI สถานะ
รายชื่อ AI ที่ถูกทดสอบ ChatGPT, Gemini, Copilot, Perplexity, Claude, Poe’s Assistant ยืนยันรายชื่อ AI ทั้ง 6 ตัวที่ถูกทดสอบตรงตามที่แหล่งข่าวระบุ ตรง
ผลการทดสอบโดยรวม AI ทุกตัวที่ทดสอบเกิดอาการ Hallucination (สร้างข้อมูลเท็จ) สรุปผลลัพธ์หลักว่า AI ทั้ง 6 ตัวไม่ผ่านการทดสอบและให้ข้อมูลผิดพลาด ตรง
ตัวอย่างคำถามหลอก คำถามเกี่ยวกับรางวัลโนเบลปี 1948, สุนัขบนดวงจันทร์ ระบุตัวอย่างคำถามที่ใช้ในการทดสอบตรงตามที่บทความกล่าวถึง ตรง
ข้อสังเกตเกี่ยวกับ Perplexity อ้างอิงแหล่งข้อมูล แต่แหล่งข้อมูลไม่ได้สนับสนุนคำตอบที่ผิด ชี้แจงประเด็นเฉพาะของ Perplexity ที่แม้มีการอ้างอิงก็ยังให้ข้อมูลผิด ตรง

Reference Site: ZDNet

Similar Posts