ในวันที่โลกมี AI เข้ามาช่วยมนุษย์ทำงานได้ในแทบทุกมิติ ในด้านดี เราก็เหมือนมีผู้ช่วยคนใหม่ที่แบ่งเบาภาระได้อย่างมหาศาล แต่ในอีกมุม AI ก็มีข้อจำกัดบางอย่างที่หลายครั้งเราอาจลืมไป ซึ่งทำให้ผลเสียที่ตามมาก็อาจมีได้อย่างมหาศาลเช่นกัน
หนึ่งในประเด็นที่หลายคนให้ความสนใจคือ ‘บทบาทของ AI ในการเรียนมหาวิทยาลัย’ เพราะผู้ช่วยคนใหม่นี้ได้แทรกซึมในวงการนี้อย่างรวดเร็ว ทั้งช่วยสรุปบทเรียน ทั้งช่วยหาข้อมูล จนถึงเขียนเปเปอร์ แต่ในอีกมุมหนึ่ง ผลลัพธ์ที่ตามมาของการใช้ AI ในงานวิชาการก็ไม่ควรถูกมองข้าม
เพื่อทำความเข้าใจความเปลี่ยนแปลงที่กำลังก่อตัวในรั้วมหาวิทยาลัย The MATTER ได้พูดคุยกับอาจารย์สองท่าน–ท่านหนึ่งจากคณะวิทยาศาสตร์ และท่านหนึ่งจากภาควิชาปรัชญา เพื่อชวนผู้อ่านสำรวจมุมมองหลากหลายมิติ ต่อผลกระทบที่เกิดจากการใช้ AI ในวงการวิชาการ
ความเปลี่ยนแปลงในวันที่ AI เข้ามา
“เรียกว่าเปลี่ยนรูปโฉมของการทำงานไปเลย” ศาสตราจารย์ ดร.ธีรยุทธ วิไลวัลย์–ประธานคณะกรรมการจริยธรรมงานวิชาการและงานวิจัย และอาจารย์ภาควิชาเคมี คณะวิทยาศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย กล่าวถึงความเปลี่ยนแปลงที่เกิดขึ้นในวงการวิชาการ หลังจากที่โลกมี AI เป็นเครื่องมือ

ศาสตราจารย์ ดร.ธีรยุทธ วิไลวัลย์ cr.ภาควิชาเคมี คณะวิทยาศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย
อาจารย์ธีรยุทธ ชวนเราเข้าใจหลักการคร่าวๆ ของ AI ที่ใช้อย่างแพร่หลายในแวดวงการศึกษาไทย โดยอธิบายว่า เมื่อพูดถึง AI ปัจจุบัน เราจะเข้าใจกันว่าหมายถึง Generative AI ซึ่งเป็นเครื่องมือปัญญาประดิษฐ์ที่สามารถเข้าใจภาษา และสามารถประดิษฐ์เอาต์พุต (Output) โดยอาจจะเป็นในรูปแบบคำพูด รูปภาพ งานเขียน กาพย์กลอน หรือแม้กระทั่งดนตรี ที่ AI สามารถสร้างขึ้นมาได้อย่างรวดเร็ว
อาจารย์เล่าว่าที่ผ่านมา AI เข้าได้เข้ามามีบทบาทในทุกวงการ โดยเฉพาะการเรียนการสอนในมหาวิทยาลัย ซึ่งเกี่ยวข้องกับการเขียน การทำโจทย์ การตอบคำถาม และการคิดวิเคราะห์ โดยกระทรวงการอุดมศึกษา วิทยาศาสตร์ วิจัยและนวัตกรรม (อว.) เอง ก็ไม่ได้ปิดกั้นเครื่องมือชิ้นใหม่นี้แต่อย่างใด เพราะได้สนับสนุนให้ทุกมหาวิทยาลัยมีการเรียนการสอน และมีการใช้ AI
“แต่ต้องบอกว่า AI ก็เหมือนกับดาบสองคม มันเป็นเครื่องมือที่ทรงประสิทธิภาพมากๆ เรียกว่าเปลี่ยนรูปโฉมของการทำงานไปเลย แต่ในขณะเดียวกัน มันก็มีข้อจำกัดอยู่เยอะมากเหมือนกัน” อาจารย์ธีรยุทธระบุ
แล้วข้อจำกัดที่ว่ามีอะไรบ้าง? อาจารย์ชวนเราเข้าใจ 5 ประเด็นหลักๆ ที่เราควรตระหนักถึงเมื่อใช้ AI ช่วยทำงาน
1) ความถูกต้อง
เมื่อพูดถึงเทคโนโลยีของ AI จะมีหนึ่งในวิธีการเรียนรู้คือ ระบบรู้จำตัวอักษร (Optical Character Recognition หรือ OCR) ซึ่งอาจารย์อธิบายว่า เป็นวิธีการที่คอมพิวเตอร์ใช้ในการจดจำรูปภาพ โดยตรวจจับว่า ภาพนี้คือตัว ก.ไก่ หรือภาพนี้คือตัว ข.ไข่ ซึ่งเมื่อมีตัวอย่าง ก.ไก่ ตัวอย่าง ข.ไข่ ให้ AI ดูและจดจำเยอะๆ ระบบก็จะเริ่มจับแพทเทิร์นได้ และสามารถแยกแยะได้ว่า ภาพไหนคือ ก.ไก่ ภาพไหนคือ ข.ไข่ โดยที่เราไม่ต้องไปบอกเองเสียทุกครั้ง
“ทีนี้ประเด็นมันจะมีอยู่ว่า สมมุติเราเทรน (Train หรือฝึกฝน) เฉพาะ ก.ไก่ ข.ไข่ แต่เราเกิดป้อนตัวหนังสือที่มันไม่รู้จักเข้าไป อย่างเช่น ค.ควาย” อาจารย์ชวนคิดว่า เมื่อกรณีดังกล่าวเกิดขึ้น สิ่งที่หลายคนคิดว่าควรจะตามมา คือ AI ต้องบอกว่า “ไม่รู้จักตัวอักษรดังกล่าว” เพราะไม่ใช่ทั้ง ก.ไก่ ข.ไข่ ที่จดจำมา
แต่สิ่งที่เกิดขึ้นคือ “ใส่ ค.ควาย เข้าไป เขาก็จะตอบอย่างมั่นใจว่านี่คือ ก.ไก่” โดยอาจารย์ชี้ว่า สิ่งที่ AI โมเดลปัจจุบันจากหลายๆ ค่าย เป็นเหมือนกัน คือการพยายามจับให้ได้ว่าเป็น ก.ไก่ หรือ ข.ไข่ ซึ่งเป็นข้อมูลที่มีอยู่ พร้อมพยายามให้คำตอบที่ฟังเผินๆ แล้ว ดูมีหลักการและน่าเชื่อถือ เนื่องจาก AI มีความสามารถในเชิงภาษาที่สูง
“อันนี้ก็จะเป็นพื้นฐานของการที่ว่าทำไม AI มันมีความหลอน” อาจารย์ธีรยุทธระบุว่า ในทางเทคนิคสิ่งที่เกิดขึ้นเรียกว่า อาการหลอนของ AI (AI hallucinations) เพราะ AI มีความที่จะคิดว่าจะต้องหาคำตอบให้เราให้ได้ และพยายามทำให้คนรู้สึกเชื่อ แต่จริงๆ แล้วคำตอบที่หามาให้เรานั้น อาจจะไม่ถูกก็ได้

นอกจากประเด็นนี้แล้ว ยังมีกรณีความผิดพลาดอื่นๆ ซึ่งบางที AI อาจเข้าใจว่า แหล่งข้อมูลมีการพูดถึงเยอะๆ มีตัวอย่างเยอะๆ หรือพูดถึงเรื่องเดียวกันนี้เยอะๆ คือสิ่งที่ถูกต้อง จึงสรุปมาเป็นข้อมูลเพื่อตอบคำถามเรา แต่ในหลายครั้งหลายหน อาจารย์ชี้ว่า “ของที่มีเยอะไม่จำเป็นว่าเป็นของที่ถูก”
เพื่อทำความเข้าใจหลักการทำงานของ AI ที่ว่านี้ อาจารย์ชวนให้เราลองสั่งให้ AI สร้าง “ภาพนาฬิกาที่มีเข็ม” โดยระบุว่า ภาพที่ได้จะเป็นออกมารูปแบบเดียวกัน “คือเข็มจะชี้อยู่ที่ 10 นาฬิกา 10 นาที”
เมื่อเราลองทำเช่นกันก็พบว่า เข็มนาฬิกาชี้ที่เวลาดังกล่าวจริงๆ โดยอาจารย์ธีรยุทธอธิบายว่า เพราะนาฬิกา ณ เวลา 10 นาฬิกา 10 นาที เป็นภาพที่เข็มนาฬิกาทำมุมสวยที่สุด และเป็นภาพที่ปรากฏอยู่บนอินเทอร์เน็ตเยอะที่สุด ดังนั้น “AI ก็จะเรียนจากสิ่งที่มันเห็นเยอะที่สุดนั่นแหละ” ซึ่งในหลายกรณี เราไม่ควรทึกทักและเชื่ออย่างสนิทใจว่า ข้อมูลของ AI คือความจริงเสมอ
“AI ไม่สามารถรู้ได้ทุกสิ่ง”
อาจารย์ย้ำถึงความจำเป็นของการตรวจสอบข้อมูลจาก AI อย่างรอบคอบ โดยยกตัวอย่างกรณีการใช้ AI ช่วยเขียนอ้างอิงรายงานว่า บางที AI อาจอ้างอิงด้วยเอกสารที่ดูเหมือนจะถูกต้อง เช่น มีเลขหน้า มีเว็บไซต์ มีชื่อวารสาร มีชื่อคน แต่เมื่อตรวจสอบรายละเอียดจริงๆ แล้ว อาจพบว่ามีข้อผิดพลาดเล็กๆ น้อยๆ เช่น ชื่อคนผิด ปีไม่ตรง เลขหน้าไม่ตรง จนถึงชื่อเรื่องไม่ตรง
เขากล่าวว่า “ต้องบอกว่า AI เป็นเครื่องมือที่ powerful (มีประสิทธิภาพสูง) มากๆ” ดังนั้น การนำมาใช้อย่างถูกต้องจึงเป็นเรื่องสำคัญ
2) ความโปร่งใส
“หลักการที่ถูกต้องคือ เราใช้ AI ทำอะไร เราจะต้องเป็นคนบอก เราจะต้อง declare (แจ้ง) ว่าเราใช้ AI ทำ” อาจารย์ระบุว่า อีกหนึ่งประเด็นสำคัญคือ ‘ความโปร่งใส’
เขาเล่าว่า ที่ผ่านมาอาจารย์ก็ให้ความรู้กับผู้เรียนมาโดยตลอดว่า ไม่ได้ห้ามใช้ AI ในการเรียน เพียงแต่ “ถ้าใช้ทำ กรุณาบอกด้วยว่า ‘ใช้และใช้อย่างไร’ คือการแสดงความโปร่งใส”
“คือเราจะไม่ทำตัวเหมือนประหนึ่งว่าเป็นผู้เชี่ยวชาญ แล้วเราก็ไปแอบถาม AI มา” เขาระบุว่า ในหลายครั้งอาจมีผู้ใช้ AI ทำงาน แต่ก็ไม่ได้แจ้งอย่างเปิดเผย และอาจคัดลอกคำตอบจาก AI มาเป็นคำตอบ เป็นความคิดของตัวเอง ซึ่ง “มันไม่มีประโยชน์เลย เราจะไม่ได้เรียนรู้อะไรเลย”
ยิ่งเมื่อบางคนใช้ AI เพื่อเป็น shortcut (ทางลัด) โดยอยากได้คำตอบอย่างรวดเร็ว แต่กลับไม่สนใจวิธีการที่จะได้มาซึ่งคำตอบ ซึ่งอาจารย์กล่าวว่า “เราก็ไม่มีสิทธิ์รู้ได้หรอก ถ้าเขาไม่บอกความจริง” ดังนั้นความโปร่งใสจึงกลายเป็นเรื่องสำคัญในการเรียนรู้และทำงานวิชาการ

3) ความปลอดภัย
“ก็คือต้องระลึกไว้อย่างหนึ่งว่า ข้อมูลทั้งหลายที่เราส่งเข้าไปให้ AI เนี่ย AI มันเอาไปแล้วมันเอาไปเลยนะ” อาจารย์ธีรยุทธกล่าวว่า สิ่งที่เราป้อนเข้าไปให้ AI จะถูกจัดเก็บเข้าไปในหน่วยความจำของ AI อย่างถาวร และกลายเป็น Digital Footprint (ร่องรอยดิจิทัล) ของเรา
อาจารย์ชวนให้นึกถึงเทรนด์ที่หลายคนส่งรูปถ่ายของตัวเองเข้าไปให้ AI ช่วยแต่งรูปหรือเปลี่ยนเครื่องแต่งกาย ซึ่งอาจทำให้ AI รู้ได้ว่าชื่อบัญชีผู้ใช้ AI คนนี้หน้าตาเป็นอย่างไร รวมถึงการป้อนข้อมูลส่วนตัวเข้าไปในระบบ AI เช่น รูปบัตรประชาชน เลขบัญชีธนาคาร เลขโทรศัพท์ “ก็อาจจะทำให้ข้อมูลส่วนบุคคลรั่วไหล”
“เราไม่รู้หรอกว่าข้อมูลที่เราส่งเข้าไป AI จะเอาไปทำอะไรต่อ” หรือว่าข้อมูลพวกนี้ที่ถูกเก็บไปแล้ว จะไปปรากฏอยู่ที่ไหน
ยกตัวอย่างกรณีที่เราใช้ AI เพื่อช่วยตรวจทาน วิเคราะห์ หรือเรียบเรียงข้อมูลจากงานวิชาการ โดยสมมติว่า ข้อมูลในงานชิ้นนั้นเป็นความลับที่ยังไม่เคยเปิดเผยที่ไหนมาก่อน แล้วบังเอิญมีคนอื่นจากอีกมุมโลกที่ใช้ AI ตัวเดียวกัน เกิดถามคำถามเดียวกับที่ปรากฏอยู่ในข้อมูลของเรา “แล้ว AI มันก็มีคำตอบของเราอยู่ในมือแล้วนี่ มันก็เอาคำตอบเราไปบอกเขา ก็เป็นไปได้”
“ถ้าสมมุติเป็นไอเดียอะไรสักอย่างที่จะทำให้เกิดธุรกิจหมื่นล้าน เราให้มันเข้าไปแล้ว เราให้มันช่วยตรวจภาษาไปเรียบร้อย แล้วงานนี้ถูกนำไปใช้ต่อ มันก็ได้ไอเดียนี้ไปด้วย” อาจารย์ย้ำถึงอันตรายเรื่องของความปลอดภัย ความเป็นส่วนตัว ความเป็นความลับ ซึ่งเราไม่ควรจะใส่เข้าไปในระบบของ AI เพราะอาจทำให้เกิดความเสียหายมหาศาล
4) ความเป็นธรรม
อีกหนึ่งประเด็นที่ไม่ควรถูกมองข้ามคือ ‘ความเป็นธรรม’ ซึ่งโดยธรรมชาติของ AI ที่ถูกเทรนมากับข้อมูลชุดหนึ่งนั้น อาจจะไม่ได้สะท้อนความจริงและความถูกต้องทั้งหมด
อาจารย์ธีรยุทธยกตัวอย่าง ‘การใช้ AI เพื่อตรวจจับ AI’ โดยเครื่องมือดังกล่าวอาจถูกเทรน ผ่านการป้อน ‘งานที่คนเขียน’ เข้าไปให้ AI ดู แล้วให้ AI จำว่านี่คือ ‘งานที่คนเขียน’ จากนั้นก็ป้อนงานอีกชุดหนึ่งที่ AI เขียน แล้วก็บอกว่า “นี่คือ AI เขียน” เมื่อเทรนแบบนั้นแล้ว AI ก็จะเห็นงานอยู่ 2 แบบ–คนเขียน และ AI เขียน
อย่างไรก็ตาม “ปัญหาก็คือ AI บางตัวก็ใช้วิธีการเทรนด้วยคนกลุ่มน้อย” อย่างเช่น อาจจะใช้ตัวอย่างผลงานจากนักเรียนมัธยมปลายในอเมริกาเท่านั้น ซึ่งหากผลงานที่ถูกตรวจจับ มาจากคนอีกกลุ่ม อย่างนักเรียนเอเชีย “AI ก็จะคิดว่า นั่นไม่ใช่คนเขียน” เพราะภาษาเขียนหรือแนวทางการเขียน อาจจะไม่ได้เหมือนกัน เนื่องจากพื้นหลังที่แตกต่างกัน จนเกิดเป็น ‘ความลำเอียง’ ในที่สุด
“เป็นประเด็นเรื่องความลำเอียงของข้อมูลอยู่โดยธรรมชาติของ AI อยู่แล้ว ขึ้นกับว่าเขาเทรนมันมายังไง ดังนั้นเราต้องระวังเรื่องอคติให้ดี”

อีกหนึ่งเรื่องสำคัญเกี่ยวกับความเป็นธรรมคือ ‘ปัญหาความเหลื่อมล้ำ’ ที่อาจเกิดจากการใช้ AI ในสถานศึกษา โดยอาจารย์ธีรยุทธระบุว่า “AI มันมีหลายโมเดล มีหลายรุ่นของถูก ของฟรี ก็จะมีข้อจำกัด ข้อมูลอาจจะเก่าหน่อย มันอาจจะตอบได้ไม่ลึกซึ้งเท่า”
ขณะที่นักเรียนบางคนไม่มีแม้แต่เงินจะจ่ายค่าเน็ตรายเดือน แต่ “คนที่มีตังค์จ่าย AI ที่แพงกว่า เสียเงิน Subscribe (สมัครสมาชิก) ก็จะได้คำตอบที่ดีกว่า”
กลายเป็นเรื่องความเหลื่อมล้ำในสถานศึกษาที่ไม่ควรมองข้าม หากอาจารย์ให้การบ้านโดยอนุญาตให้ใช้ AI ได้อย่างเต็มที่ แล้วตรวจงานตาม ‘เนื้อผ้า’ หรือตรวจเพียงผลลัพธ์ ก็แน่นอนว่า “คนที่ใช้ AI ราคาแพงกว่า ก็ต้องเขียนดีกว่าอยู่แล้ว” เมื่อเปรียบเทียบกับคนที่ใช้โมเดลฟรี หรือราคาถูกกว่า รวมถึงคนที่ไม่ใช้ AI เขียนงานเลย
“ฉะนั้นเราไม่อยากจะใช้วิธีวัดว่า คุณตอบได้ดีเพราะคุณมีตังค์จ่าย”
5) ความรับผิดชอบ
“ก็คงหนีไม่พ้นหรอกครับที่จะต้องใช้มัน แต่เราต้องใช้มันอย่างเท่าทัน” อาจารย์ธีรยุทธย้ำว่า AI เป็นเครื่องมือที่มีประโยชน์กับการศึกษาอย่างมหาศาล เพียงแต่สุดท้ายแล้ว เราในฐานะผู้ใช้ AI “เราปฏิเสธความรับผิดชอบไม่ได้”
“เราจะโทษว่า AI เขียนไม่ได้ เพราะเราเป็นคนสั่งให้มันเขียน” เขาย้ำ
จากข้อควรระวังทั้ง 5 ข้อที่กล่าวมาทั้งหมด สำหรับผู้ใช้ AI ก็ต้องไม่ลืมว่า เครื่องมือนี้มีโอกาสที่จะผิดพลาดเสมอ และเราก็ต้องเท่าทันเสมอ กล่าวคือ ไม่ว่าจะใช้ AI ทำอะไร เราจำเป็นต้องตรวจสอบ ตั้งแต่เรื่องความถูกต้อง ความโปร่งใส ความปลอดภัย จนถึงความเป็นธรรม ซึ่งทั้งหมดนี้คือ ‘ความรับผิดชอบ’ ที่ผู้ใช้ AI จำเป็นต้องมี “เพราะสุดท้ายเราเนี่ย จะต้องเป็นคนรับผิดชอบของมัน”
“ผมไม่ได้ Anti เรื่องนี้นะ ยังไงก็ต้องใช้ แล้วถ้าใช้เป็นเนี่ย มันมีประโยชน์มหาศาล” อาจารย์ย้ำว่า เราไม่ควรใช้ AI เพียงแค่หาคำตอบหรือสร้างผลลัพธ์บางอย่าง โดยไม่สนใจวิธีคิด ไม่สนใจที่จะพัฒนาตัวเอง
เพราะสุดท้ายแล้วการใช้ AI เช่นนั้น “กลายเป็นว่าจะทำให้เราโง่ลง แทนที่จะฉลาดขึ้น”
จากที่กล่าวมาทั้งหมด น่าตั้งคำถามว่า ต่อจากนี้ไปหน้าตาของการเรียนรู้จะเปลี่ยนแปลงไปเป็นอย่างไร โดยเฉพาะอย่างยิ่ง ในแง่การเรียนมหาวิทยาลัย ที่ถือเป็นสถานที่บ่มเพาะ ‘ความรู้’
หน้าตาของการเรียนรู้ในรั้วมหาวิทยาลัย หลังจากวันที่ AI เข้ามา
“เป็นจุดเปลี่ยน” รองศาสตราจารย์ ดร.ศิรประภา ชวะนะญาณ จากภาควิชาปรัชญาและศูนย์เชี่ยวชาญเฉพาะทางวิทยาศาสตร์ เทคโนโลยี และสังคม คณะอักษรศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย กล่าวว่า ที่ผ่านมา AI ทำให้มหาวิทยาลัยต้องตั้งคำถามและเปลี่ยนแปลง ทั้งรูปแบบการสอน วิธีประเมิน กระทั่งความหมายและความสำคัญของ ‘ความรู้’

รองศาสตราจารย์ ดร.ศิรประภา ชวะนะญาณ cr.คณะอักษรศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย
อาจารย์ศิรประภาชวนเราทำความเข้าใจในมุมมองปรัชญาว่า ในแง่หนึ่งมหาวิทยาลัยเป็นแหล่งที่เราใช้ในการศึกษาหาความรู้และทำงานวิจัย ซึ่งก่อนหน้านี้ ภาพของตัวเรากับเครื่องมือที่ใช้หาความรู้ มีลักษณะที่ ‘แยกขาดจากกัน’
การแยกขาดจากกันที่ว่า อาจอธิบายให้เห็นภาพได้ว่า ก่อนหน้านี้เราอาจใช้ห้องสมุด หรือใช้ Google ในการเรียน หาข้อมูล หรือทำงานวิจัย ซึ่งการเรียนรู้ในลักษณะดังกล่าว ทำให้เรารู้ว่าเรากำลังใช้ ‘เครื่องมือ’ และมีความเข้าใจที่มีความแยกขาดว่า “อันนี้เป็นฉัน อันนี้เป็นข้อมูลจากเครื่องมือ”

แต่ในวันนี้ที่ AI เข้ามา “กลายเป็นว่า ภาพ หรือ ระยะห่าง ระหว่างตัวฉันกับเครื่องมือ กลับน้อยลงและเลือนราง” ทำให้เราพูดยากขึ้นว่า ความคิดนี้เป็นของใครในการใช้หาเครื่องมือ ซึ่งอาจารย์ระบุว่า “มันเหมือนกับมีกระบวนการบางอย่างที่ทำให้มันเบลอขึ้น”
อาจารย์ขยายความกระบวนการดังกล่าวว่า ก่อนหน้านี้ “ความรู้มันเหมือนกับว่า เฮ้ยเรารู้อะไร คนมีความรู้คือคนที่รู้อะไร มันมี Content (เนื้อหา) หลังความรู้นั้น” แต่หลังจากที่ AI เข้ามา ความรู้หรือการเรียนรู้ในความหมายดังกล่าว (การรู้อะไร) ก็ลดความสำคัญลง
กลายเป็นว่า สิ่งที่สำคัญกว่า “การรู้อะไร” เปลี่ยนเป็น “รู้ว่าจะถามอย่างไร” ซึ่งอาจารย์มองว่า ประเด็นนี้คือจุดเปลี่ยนสำคัญของการเข้ามาของ AI ทำให้การศึกษาหาความรู้ในมหาวิทยาลัยเนี่ย มันกลายเป็นว่า
“รู้อะไรสำคัญไม่เท่ากับรู้ว่าจะถามอย่างไร”
แล้วต่อจากนี้องค์ความรู้จะมีหน้าตาเปลี่ยนไปอย่างไร? อาจารย์ศิรประภาชวนเราตั้งคำถามไปพร้อมๆ กัน ดังต่อไปนี้
1) การศึกษาหาความรู้อาจยากขึ้น?
หลายๆ คนอาจจะคิดว่า เมื่อ AI เข้ามาแล้ว การหาความรู้หรือข้อมูลต่างๆ จะกลายเป็นเรื่องง่ายขึ้น แต่อาจารย์ชวนเราตั้งข้อสังเกตว่า ยิ่งนานไปการหาความรู้อาจจะ “ยิ่งยากขึ้นก็ได้”
อาจารย์อธิบายว่า “มันเริ่มยากขึ้นแล้วที่เราจะแยกเส้นแบ่ง ระหว่างความจริงกับความไม่จริงในข้อมูล” ทั้งอาการหลอนของ AI ทั้งการอ้างอิงที่ผิดพลาดแต่ก็ยังตอบเราอย่างมั่นใจ จนถึงรูปที่ AI สร้างมาอย่างเสมือนจริงเสียจนแยกไม่ออก กรณีเหล่านี้ทำให้ล้วนทำให้การเรียนรู้อะไรใหม่ๆ ซับซ้อนขึ้น เพราะเราต้องตรวจสอบข้อมูลหนักขึ้น
“เพราะความจริงกับความไม่จริงมันซ้อนทับกันอยู่ ยิ่งนานมันยิ่งซ้อนทับๆ”
สิ่งที่อาจเกิดขึ้นคือ “ไปๆ มาๆ มองยาวๆ อาจไม่ได้ง่ายขึ้น เพราะว่าต้องสอน ต้องพยายามฝึกให้คนวิพากษ์ข้อมูลต่างๆ มากยิ่งขึ้น เพื่อที่จะหาให้ได้ว่าสิ่งที่ AI ตอบ มันจริงหรือเปล่า”
ดังนั้นต่อจากนี้ ‘ความรู้เกี่ยวกับทักษะการหาความรู้’ หรือการประเมินและตรวจสอบข้อมูล จึงกลายเป็นเรื่องสำคัญ และการเรียนรู้ในรูปแบบเน้นความจำแบบเดิมๆ อาจไม่ตอบโจทย์อีกต่อไป

2) ทักษะการเรียบเรียงความคิดอาจน้อยลง?
กระบวนการเขียนและเรียบเรียงความคิด ถือว่าสำคัญมาก ไม่เพียงแต่ในวงการวิชาการ แต่ยังรวมถึงชีวิตประจำวันของเราทุกคน ที่ต้องจัดระเบียบความคิด เพื่อเข้าใจตัวเองและสื่อสารกับผู้อื่นอย่างมีประสิทธิภาพ
อาจารย์ชวนตั้งข้อสังเกตถึง ‘ทักษะการเรียบเรียงความคิด’ ว่าหลังจากที่ AI เข้ามา อาจมีหลายคนเคยชินกับการให้ AI เรียบเรียงความคิดอะไรต่างๆ ให้ เพื่อให้ได้คำตอบอย่างรวดเร็ว จน “บางทีเราไม่รู้ตัวเลยว่า ทักษะการเรียบเรียงความคิดมันน้อยลงไป”
3) เสียงของคนชายขอบอาจถูกกดทับ?
อีกหนึ่งประเด็นที่อาจารย์ไม่อยากให้มองข้ามคือ ‘ความอยุติธรรมในความรู้’ ซึ่งโดยธรรมชาติการทำงานของ AI ที่อ้างอิงข้อมูลด้วยสถิตินั้น อาจทำให้ “เสียงของคนส่วนน้อยหรือคนชายขอบหายไป” เพราะอัลกอริทึมจะทำนายคำตอบจากข้อมูลที่พบมากที่สุด หรือคำตอบของคนส่วนใหญ่ จนอาจปิดกั้นไม่ให้มองเห็นความเห็นของคนส่วนน้อย
“ชุดความรู้บางแบบถูกกดทับ ชุดความรู้บางแบบถูกบังคับให้เด่นด้วยความเป็นเสียงส่วนใหญ่”
อาจารย์ระบุถึงผลกระทบร้ายแรงที่อาจตามมาคือ ชุดความรู้อื่นๆ ที่สร้างสรรค์และหลากหลาย “อาจถูกกดทับ” จนตัวตนของคนชายขอบค่อยๆ เลือนหายไปจากการศึกษา
“เป็นปัญหาสำคัญที่คนใช้ AI ต้องตระหนักว่า มีความรู้บางอย่างที่ถูกกดทับอยู่” อาจารย์ศิรประภาระบุ

ทักษะการวิพากษ์ AI กลายเป็นเรื่องจำเป็น
ฟังมาแบบนี้แล้วจะเข้าใจได้ว่า ทักษะใหม่ที่สถานศึกษาหลายแห่งหันมาให้ความสำคัญคือ ‘การวิพากษ์ AI’
จากที่เราเคยวัดผลจาก ‘ผลลัพธ์’ ซึ่งเป็นงานสุดท้าย เช่น ในรูปแบบคำตอบของข้อสอบ รายงาน หรือเรียงความ ที่มอบหมายให้ผู้เรียนนำกลับไปทำที่บ้าน แต่ “ตอนนี้มันกลับกลายเป็นว่า เราต้องดูกระบวนการก่อนจะมาเป็นของสุดท้าย” โดยอาจารย์กล่าวว่าแนวทางในการประเมินใหม่นี้ ก็อาจมีได้หลายรูปแบบ หนึ่งในนั้นคือการ “คุยกับผู้เรียนให้มากขึ้น” เพื่อให้ได้ทราบกระบวนการเรียนรู้ที่เกิดจริงๆ
“ถ้าเราอยากจะพัฒนาผู้เรียนจริงๆ เราดูแค่ผลลัพธ์ไม่ได้แล้ว คือมันไม่สามารถที่จะไปประเมินแค่ตอนท้าย แต่ว่าระหว่างทางเป็นสิ่งที่สำคัญขึ้นมา”
“ในอนาคตคิดว่า หลายๆ ที่น่าจะตระหนักมากขึ้น ในการที่จะเน้นให้ผู้เรียนใช้เครื่องมือนี้ แบบที่มีวิจารณญาณ มีลักษณะของการวิพากษ์มากขึ้น” อาจารย์ชี้ว่า นโยบายต่างๆ ของมหาวิทยาลัยไม่ได้ปิดกั้น AI เพียงแต่ต้องตระหนักถึงประเด็นต่างๆ ที่กล่าว เพื่อหลีกเลี่ยงปัญหาที่อาจเกิดขึ้นกับทั้งตัวผู้เรียนเอง และ ‘ความรู้’ ที่จะถูกบ่มเพาะในรั้วมหาวิทยาลัยต่อจากนี้ไป
“รู้ว่าใช้ยังไงไม่เท่ากับการวิพากษ์” อาจารย์ย้ำ
ไม่เพียงแค่ในมหาวิทยาลัยเท่านั้น อาจารย์ยังชี้ว่า ทักษะการวิพากษ์เครื่องมือนี้ “ต้องเริ่มตั้งแต่เล็กแต่น้อย” เพราะเป็นเรื่องสำคัญที่มนุษย์ต้องเห็นปัญหา เพื่อให้สามารถปรับตัวและรับมือได้ดีขึ้น ในวันที่ AI เข้ามามีส่วนร่วมในชีวิตมนุษย์อย่างรวดเร็ว