จุดบอดของเอไอ

🧠 การแยกแยะความจริงและความเชื่อของ AI: จุดบอดที่ต้องเร่งแก้ไข
ผลการศึกษาล่าสุดจากทีมวิจัยมหาวิทยาลัยสแตนฟอร์ด ซึ่งตีพิมพ์ในวารสาร Nature Machine Intelligence ชี้ให้เห็นถึงข้อจำกัดสำคัญของโมเดลภาษาขนาดใหญ่ (LLMs) ในตลาด โดยพบว่าแชตบอต AI ชั้นนำทั้งหมด ไม่สามารถแยกแยะความเชื่อที่ผิด (Misconceptions) ออกจากข้อเท็จจริงได้อย่างสม่ำเสมอ ซึ่งนำไปสู่ความเสี่ยงของการ “หลอน” (Hallucination) หรือการสร้างข้อมูลเท็จ ทีมนักวิจัยได้ทำการประเมินโมเดล AI ชื่อดัง.. ดูเพิ่ม