ข้ามไปเนื้อหา

ประสาทหลอน (ปัญญาประดิษฐ์)

จากวิกิพีเดีย สารานุกรมเสรี
(ต่าง) ←รุ่นเก่ากว่านี้ | รุ่นแก้ไขล่าสุด (ต่าง) | รุ่นที่ใหม่กว่า → (ต่าง)
แชตจีพีทีสรุปบทความของเดอะนิวยอร์กไทมส์ที่ไม่มีอยู่จริง

ในสาขาปัญญาประดิษฐ์ อาการประสาทหลอน (hallucination)[1][2] หรือ การสร้างเรื่องจากความจำเสื่อม (confabulation)[3] หรือ การหลงผิด (delusion)[4] หมายถึงความเป็นเท็จที่สร้างขึ้นโดยปัญญาประดิษฐ์หรือการตอบสนองที่นำเสนอข้อมูลที่ทำให้เข้าใจ ว่าเป็นข้อเท็จจริง[5][6][7] ตัวอย่างเช่น จักรกลสนทนาที่ขับเคลื่อนโดยแบบจำลองภาษาขนาดใหญ่ (LLM) เช่นแชตจีพีที สามารถสุ่มสร้างคำโกหกที่ฟังดูสมจริงภายในเนื้อหาที่สังเคราะห์ขึ้น นักวิจัยตระหนักถึงปัญหานี้ โดยประเมินว่าปรากฏการณ์การประสาทหลอนเช่นนี้เกิดขึ้นมากถึง 27% ของทั้งหมด[8] และข้อผิดพลาดของข้อเท็จจริงปรากฏอยู่ใน 46% ของข้อความที่สร้างขึ้น[9] การตรวจจับและบรรเทาอาการประสาทหลอนเหล่านี้ถือเป็นความท้าทายที่สำคัญต่อการยอมรับในทางปฏิบัติและความน่าเชื่อถือของแบบจำลองภาษาขนาดใหญ่[10][8]

อ้างอิง

[แก้]
  1. Dolan, Eric W. (2024-06-09). "Scholars: AI isn't "hallucinating" -- it's bullshitting". PsyPost - Psychology News (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2024-06-11.
  2. Hicks, Michael Townsen; Humphries, James; Slater, Joe (2024-06-08). "ChatGPT is bullshit". Ethics and Information Technology (ภาษาอังกฤษ). 26 (2): 38. doi:10.1007/s10676-024-09775-5. ISSN 1572-8439.
  3. Edwards, Benj (6 April 2023). "Why ChatGPT and Bing Chat are so good at making things up". Ars Technica (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 11 June 2023.
  4. "Shaking the foundations: delusions in sequence models for interaction and control". www.deepmind.com. 22 December 2023.
  5. "Definition of HALLUCINATION". www.merriam-webster.com (ภาษาอังกฤษ). 2023-10-21. สืบค้นเมื่อ 2023-10-29.
  6. Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Yejin; Dai, Wenliang (November 2022). "Survey of Hallucination in Natural Language Generation" (pdf). ACM Computing Surveys. Association for Computing Machinery. 55 (12): 1–38. arXiv:2202.03629. doi:10.1145/3571730. สืบค้นเมื่อ 15 January 2023.
  7. "ハルシネーション(Hallucination)とは?". @IT. 2023-11-06. สืบค้นเมื่อ 2023-12-06.
  8. 8.0 8.1 Metz, Cade (6 November 2023). "Chatbots May 'Hallucinate' More Often Than Many Realize". The New York Times.
  9. de Wynter, Adrian; Wang, Xun; Sokolov, Alex; Gu, Qilong; Chen, Si-Qing (2023-07-13). "An evaluation on large language model outputs: Discourse and memorization". Natural Language Processing Journal. 4. arXiv:2304.08637. doi:10.1016/j.nlp.2023.100024. ISSN 2949-7191.
  10. Leswing, Kif (14 February 2023). "Microsoft's Bing A.I. made several factual errors in last week's launch demo". CNBC (ภาษาอังกฤษ). สืบค้นเมื่อ 16 February 2023.