รายการอ้างอิง OpenAI (2025) ChatGPT (เวอร์ชัน 14 มีนาคม) [โมเดลภาษาขนาดใหญ่] https://chat.openai.com/chat
สำหรับผู้ที่เคยทำรายงาน หรือกำลังทำวิจัย คงจะคุ้นเคยกับวิธีการเขียนอ้างอิงหรือเขียนบรรณานุกรมหลากหลายรูปแบบ ไม่ว่าจะเป็นการอ้างอิงจากหนังสือ อินเทอร์เน็ต หรือจากการสัมภาษณ์ผู้เชี่ยวชาญ
เมื่อโลกหมุนไปอย่างรวดเร็ว อีกวิธีการเข้าถึงข้อมูลที่มาแรงแซงทางโค้ง และเข้ามามีบทบาทอย่างมากในชีวิตประจำวันของเรา ก็คือเจ้า Generative AI จนเริ่มมีคำแนะนำโดยคนทั่วไป และแม้แต่จากสถาบันการศึกษา ว่าหากจะอ้างอิงข้อมูลจาก Generative AI ควรจะมีวิธีการเขียนอย่างไร
แต่ AI หรือพูดให้ชัดไปกว่านั้น คือ Generative AI ซึ่งเป็นเครื่องมือช่วยตอบคำถาม อันมาจากการเก็บรวบรวมข้อมูลมหาศาลในอดีตนั้น มีความน่าเชื่อถือ หรือตอบคำถามได้ถูกต้อง ครบถ้วน เพียงพอที่จะถูกนำมาอ้างอิงในการทำงานวิจัย หรือยิ่งไปกว่านั้น คือเป็น ‘ผู้สร้าง’ งานวิจัยได้จริงหรือ?
The MATTER ชวนไปทำความเข้าใจการทำงานของ AI เปิดมุมมองว่า ทำไม AI ถึงไม่สามารถเป็นผู้เขียนงานวิจัยได้ และชำแหละภาพสังคมไทยผ่านประเด็นนี้ ผ่านบทสัมภาษณ์ที่เรียบเรียงจากการพูดคุยกับ พีพี–พัทน์ ภัทรนุธาพร Co-director of MIT Media Lab Advancing Human with AI Research Program ไปด้วยกัน
AI ใช้(ช่วย)ทำวิจัยได้ไหม?
AI ก็เหมือนกับเทคโนโลยีอื่นๆ ที่สามารถจะเอามาใช้ในการช่วยในมิติต่างๆ ได้ และไม่ใช่แค่ AI เท่านั้น ถ้ามองย้อนไป การเข้ามาของอินเตอร์เน็ตก็ทําให้การวิจัย หรือแม้กระทั่งการติดต่อสื่อสารนั้นง่ายขึ้น เพราะว่าเราไม่ต้องไปห้องสมุด แต่เข้าถึงเอกสารต่างๆ บนออนไลน์ได้
แต่ทุกอย่างก็ต้องมองว่าเป็นดาบสองคม เมื่อมีการเปลี่ยนแปลงแบบหนึ่ง ก็มีทั้งด้านบวกและด้านลบ ด้านบวกคือทุกอย่างง่ายขึ้น เร็วขึ้น แต่ด้านลบคือ อาจเข้าใจสิ่งต่างๆ น้อยลง เพราะเมื่อข้อมูลผ่านเข้ามาเร็ว โอกาสที่จะสามารถขบคิดอยู่กับสิ่งนั้น และเข้าใจอะไรสักอย่างได้อย่างลึกซึ้งก็จะน้อยลง
ดังนั้น เทคโนโลยีอะไรก็แล้วแต่ที่เข้ามา ต้องมองว่าอะไรคือสิ่งที่เราได้มา แล้วอะไรคือสิ่งที่เราเสียไป
สําหรับ AI กับวงการวิจัย ก็มีความสำคัญ อย่างประเทศไทยที่ไม่ได้ใช้ภาษาอังกฤษเป็นภาษาแม่ เมื่อมี AI ช่วยแปล ช่วยเขียน paper หรือเขียน manuscript เป็นภาษาอังกฤษได้ดีขึ้น ก็ทําให้งานวิจัยของคนไทยตีพิมพ์ในวารสารต่างๆ ได้มากขึ้น
ต่อมา คือช่วยในการที่คนโต้ตอบกับ AI เช่น มีการตั้งคําถามโดยเอางานวิจัยของเราให้ AI ช่วยถามว่ายังมีจุดบกพร่องอะไรบ้าง ซึ่งมนุษย์ก็ต้องนำมาคิดต่อว่าหาก AI เสนอมาควรจะรับฟังและนำมาปรับมากแค่ไหน
แต่การใช้ AI มาทําวิจัยให้เลยนั้น เราพบว่ามีหลายงานวิจัยที่ศึกษาในเรื่องนี้แล้ว ว่าการเอา AI มาแทนคน เช่น งานวิจัยทางมนุษยศาสตร์ ที่ปกติแล้วต้องไปทําแบบสอบถามกับคน ก็มีงานวิจัยที่ตีพิมพ์ใน Nature แสดงให้เห็นว่า เมื่อนำ AI มาแทนคนในการตอบแบบสอบถาม ก็จะได้ข้อมูลเหมารวม (stereotype) กล่าวคือ ไม่ได้มีรายละเอียดของแต่ละคน แต่เป็นคำตอบที่ถูกจำกัดมาแล้วว่า คนแบบนี้ เชื้อชาตินี้ ช่วงอายุนี้ มักจะมีคำตอบแบบไหน
เราทำวิจัยเพื่อให้ได้ความรู้ เพื่อให้ได้รายละเอียด เพื่อให้เข้าใจอะไรให้มันลึกซึ้งขึ้น แต่ AI จะให้คําตอบกว้างๆ หรือคําตอบที่บางทีเป็นการเหมารวม
แม้ว่า AI จะมีแหล่งข้อมูลมหาศาล แต่หลายๆ ครั้งที่ AI ไปเอาบทความมา ก็อาจเกิดการตีความผิด ดังนั้น เครื่องมือทุกชิ้นต้องมาพร้อมกับวิจารณญาณในการใช้ ไม่อย่างนั้น ก็จะทําให้ผลกระทบที่เป็นทางลบมากกว่าทางบวก
ผลเชิงลบ เช่น งานวิจัยที่เขียนออกมาโดยให้ AI เขียน แล้วข้อมูลอาจจะมีทั้งผิดและถูก เมื่อถูกเผยแพร่ออกไปก็กลายเป็นการสร้างข้อมูลผิดๆ เข้าไปในระบบให้คนเข้าถึงได้ ก็เป็นเรื่องที่อันตราย
ดังนั้น การสร้างสื่อหรืองานวิจัย ต้องมาพร้อมกับความรับผิดชอบ ซึ่งเป็นประเด็นสำคัญที่บอกว่า AI ไม่ควรเป็นผู้เขียน (author) และไม่ควรนำ AI มาใช้อ้างอิง
Generative AI ทำงานอย่างไร? ทำไมถึงไม่ควรเอามาอ้างอิงในงานวิจัย?
Generative AI เป็นประเภทหนึ่งของ AI หลักการคือการใช้ข้อมูลขนาดใหญ่เพื่อสร้างแบบจําลองคณิตศาสตร์ ว่าในภาษาของมนุษย์ ใช้ความน่าจะเป็นว่าจากคำคำหนึ่งไปสู่คําอีกคำหนึ่ง จะเป็นคําไหน ถ้าเจอคํานี้ คําตอบควรจะเป็นคำว่าอะไร
ดังนั้น โครงสร้างการทำงานของมันจึงว่าด้วยความน่าจะเป็น เป็นเพียงความน่าจะถูก ไม่ใช่สิ่งที่ถูกต้องเสมอไป
ในอนาคต อาจจะแก้ปัญหานี้ใน AI ได้ แต่ว่าทุกวันนี้เรายังแก้ไม่ได้ และมีแนวโน้มที่จะเลวร้ายขึ้นเรื่อยๆ แม้ว่าโมเดลจะฉลาดขึ้นก็ตาม
เมื่อยิ่งโมเดลฉลาดขึ้น ก็มีแนวโน้มที่จะสร้างข้อมูลผิดที่ฟังดูน่าเชื่อถือมากขึ้นตามไปด้วย
เพราะการโน้มน้าวให้คนเชื่อ ไม่จําเป็นจะต้องใช้คำตอบที่ถูก แต่เป็นการฝึกฝนด้วยโครงสร้างทางภาษา ให้สร้างประโยคที่มีโครงสร้างสละสลวย ฟังดูเป็นเหตุเป็นผล ฟังดูถูกต้อง ซึ่งง่ายกว่าการตอบคําตอบที่ถูกต้อง จึงเป็นเหตุผลว่าทำไม AI ควรมาใช้เป็นเครื่องมือ และต้องเป็นเครื่องมือที่ช่วยให้มนุษย์ มีวิจารณญาณ ไม่ใช่มาทดแทนวิจารณญาณของมนุษย์
เราทำงานวิจัยไปทำไม และทำไมท้ายงานวิจัยต้องมีอ้างอิง
เวลาเขียนอ้างอิงในการทำงานวิจัย ก็เพราะเราต้องการดูว่าใครเป็นผู้เขียนงานวิจัยนั้น ซึ่งสื่อวารสารวิจัยในระดับโลกอย่าง Nature, Science หรืออื่นๆ ได้กำหนดเลยว่า AI ไม่ใช่ ผู้เขียน และไม่สมควรแก่การเป็นแหล่งที่มาของผลงาน
เหตุผลคือ ผู้เขียน หรือ Author หมายถึงคนที่ทําวิจัย ไม่ใช่แค่เขียนอย่างเดียว แต่เป็นคนที่เขียนข้อมูล เก็บข้อมูล และต่อให้ AI ทําได้ทั้งหมด สิ่งสำคัญที่ AI ไม่มีก็คือความรับผิดชอบ เมื่อเกิดอะไรขึ้น เราไม่สามารถโทษ AI ได้ เพราะ AI เป็นแค่เครื่องมือ ไม่ได้มีความรับผิดชอบ ไม่ได้มีชีวิต มัน ไม่ได้มีหน้าที่อะไร เป็นแค่ input-output
เวลาที่เกิดความผิดพลาดขึ้น เรามักจะพูดถึงว่าใครคือคนรับผิดชอบ เพราะต้องมีคนที่เป็นคนที่จัดการ ดังนั้นถ้าหากอ้างอิง AI แล้วบอกว่า “ก็ AI ผิด ไม่ใช่เราที่ผิด” มันคือการลดทอนความรับผิดชอบของนักวิจัย ลดคุณค่าของคน
การมีนักวิจัย ก็เพื่อให้มีหน้าที่ต่อสังคมในการสร้างองค์ความรู้ใหม่ และตรวจสอบว่าองค์ความรู้ที่เขาสร้างขึ้นมามีประโยชน์ น่าเชื่อถือ และถูกนำไปใช้ต่อไปได้
โดยในคำว่าผู้เขียน หรือ Author มีรากศัพท์ในภาษาลาติน มีความหมายว่า การเพิ่มสิ่งที่เป็น Orignal หรือสิ่งทื่เป็นต้นฉบับ ดังนั้นสิ่งสําคัญก็คือมนุษย์เรามีประสบการณ์เราเรียนรู้จากธรรมชาติ และเราก็พยายามอธิบายประสบการณ์ออกมา จนกลายเป็นการเพิ่มองค์ความรู้พื้นฐานให้กับมนุษยชาติ
แต่สิ่งที่ AI ทํา คือการเรียนรู้จากข้อมูลหรือข้อความที่มนุษย์ได้เขียนออกไปแล้ว เพราะ AI ไม่สามารถรับรู้โลกจริง ไม่สามารถตื่นขึ้นมาแล้วไปห้องสมุด ไปสัมผัสประสบการณ์ชีวิต หรือไปสังเกตว่าแอปเปิลมันตกใส่หัวใครหรือเปล่า
ดังนั้น AI คือการเอาข้อมูลที่มีอยู่แล้วมาสร้างเป็นแพทเทิร์น และตอบในสิ่งที่มันเคยมีอยู่แล้ว ไอเดียของ AI จึงไม่มีความเป็น ‘original’ และไม่เข้านิยามของคำว่า Author
ประการสุดท้าย คือคำอธิบายทางหฎหมาย หากเราดูกฎหมายที่ว่าด้วยลิขสิทธิ์ (copyrights) หรือกฎหมายที่พูดถึงความเป็นผู้เขียน ก็มักจะให้คํานิยามไว้ 3 ประการ
- สิ่งที่เกิดขึ้นจากผู้เขียน หรือจะมีลิขสิทธิ์ได้จะต้องเสถียร ซึ่งคําตอบของ AI มันเปลี่ยนตลอดเวลา ดังนั้นจึงไม่เข้าข่าย
- มีความเป็นต้นฉบับ แต่ AI นำสิ่งที่มีอยู่แล้วมาดัดแปลง ไม่เหมือนมนุษย์ที่เวลาสร้างอะไรขึ้นมา จะสามารถอธิบายได้ว่ากว่าจะได้สิ่งนี้มามีกระบวนการอย่างไร
- กฎหมายระบุว่า ความเป็นผู้เขียนนั้น ต้องเกิดขึ้นโดยมนุษย์เท่านั้น ดังนั้น แม้หมาแมวจะเป็นสิ่งมีชีวิตเหมือนกันก็ไม่สามารถจะเป็นผู้เขียนได้ ด้วยเหตุผลนี้ AI จึงไม่ใช่ ‘คน’ ที่จะมีชื่อเป็นเจ้าของบทความ งานวิจัย หรือผลงานชนิดใดก็ตาม
ด้วยเหตุผลนี้ เราจึงไม่ควรจะอ้างอิง AI ในบทความอะไรก็แล้วแต่
หากผู้เขียนจะนำ AI เข้ามาใช้ในการแก้ภาษาหรือช่วยแก้ไข ก็เป็นเครื่องมือหนึ่ง คล้ายกับการใช้ Google translate แปลภาษา แต่ AI จะต้องไม่ได้ทําหน้าที่เป็นผู้สร้างงานวิจัย และเป็นเพียงเครื่องมือที่ใช้ในการแก้ไข ช่วยตั้งคําถาม ช่วยทบทวนชิ้นงานของเรา
สุดท้ายแล้ว มนุษย์ที่เป็นเจ้าของไอเดีย จะต้องเป็นคนพูดชื่อตัวเอง ซึ่งมาพร้อมกับความรับผิดชอบด้วย
อนาคตของการใช้ AI ใครควรเป็นคนจัดการ?
ทั่วโลกก็มีมีหน่วยงานหลายหน่วยงานที่ทําเรื่องนี้อยู่ โดยกฎหมายในแต่ละประเทศก็มีกระบวนการที่แตกต่างกัน ในประเทศไทย เท่าที่ทราบคือมีกรรมาธิการ AI แห่งชาติ (ชื่อเต็มคือ กรรมาธิการวิสามัญพิจารณาศึกษาแนวทางในการควบคุมและส่งเสริม การใช้เทคโนโลยีปัญญาประดิษฐ์)
ซึ่งก็อยากให้เข้ามาจัดการให้มากขึ้น เพราะทุกวันนี้คนมีปัญหากับ AI มาก ไม่ว่าจะเป็นการหลอกลวง การนำไปใช้ในสิ่งที่ไม่เหมาะสม มีการสร้างข้อมูลปลอมเต็มไปหมด จึงหวังว่ากรรมาธิการ AI แห่งชาติจะลงมือทำตอนนี้ และสร้างผลลัพธ์ที่สําคัญกับประเทศเรา เพราะ AI เป็นสิ่งที่สําคัญมาก แต่การที่จะใช้มันอย่างถูกต้อง เราจะต้องเข้าใจมันอย่างลึกซึ้ง
สุดท้ายในประเด็นที่อยากพูดถึง คือประเทศไทยมักจะชอบพูดถึงระบบระเบียบมากกว่าเนื้อแท้ของเรื่องต่างๆ เช่น การหาวิธีอ้างอิง AI ทําไมเราไม่มาตั้งคําถามกันว่า เราควรจะใช้ AI แบบไหน
ซึ่งเราคิดว่านี่เป็นสิ่งที่อันตรายมาก เหมือนการสอนให้เด็กทําโครงงาน สอนให้เด็กทําวิจัย โดยการมีรูปแบบว่าต้องเขียนแบบไหน แต่ไม่ได้ไปกระตุ้นให้คนตั้งคําถามว่า แล้วอะไรคืองานวิจัยที่ดี ซึ่งเป็นสิ่งที่ควรตั้งคำถามมากกว่า
อ้างอิงจาก
https://www.nature.com/nature-portfolio/editorial-policies/AI