← ความรู้

Interactive · AI Basic

ทำไม AI โกหก

Hallucination — AI แต่งขึ้นด้วยหน้าตาเฉย แต่แยกได้ว่าอันไหนจริง อันไหนมั่ว

1

Hallucination ของจริง

เคสที่ AI ตอบหน้าตาเฉย แต่ผิดล้วนๆ

AI ไม่ได้ "รู้" ว่าอะไรจริง — มันทำนายคำที่ "น่าจะถูก" จากสิ่งที่เคยเห็น ลองดู 4 กรณีจริงที่ AI "มั่ว" แบบเนียน กดเพื่อเห็นเฉลย

⚠️

สัญญาณเตือน: AI ตอบด้วยความมั่นใจสูง + ให้ reference ที่ "ดูน่าเชื่อ" = อาจมั่ว ยิ่งตอบแบบ structured สวยๆ ยิ่งต้อง verify

2

ทำไม AI ถึงโกหก

3 สาเหตุหลัก

📝

อุปมา: AI เหมือนนักเรียนที่เดาข้อสอบ — ไม่ได้อ่านหัวข้อนี้จริงๆ แต่ต้องตอบ จึงใช้ "ความน่าจะเป็น" จากสิ่งที่เคยอ่านมา ถ้าใกล้เคียง = ถูก / ถ้าไม่ = แต่งเรื่องแบบเนียนๆ

💡

AI ไม่ได้ "ตั้งใจโกหก" — มันทำสิ่งที่ถูก training ให้ทำ: ทำนายคำถัดไป เผอิญบางครั้ง pattern ที่ "ฟังดูเป็นคำตอบที่ดี" กับ "คำตอบที่จริง" ไม่ตรงกัน

3

วิธีตรวจว่า AI มั่ว

5 เทคนิคจริง

🎯

กฎง่ายๆ: งานสำคัญ (การแพทย์/กฎหมาย/การเงิน/สมัครงาน) = AI ร่างได้ แต่ ห้าม ส่งโดยไม่ตรวจ เสมอ

← กลับไปหน้าความรู้