วันอังคาร ที่ 3 มีนาคม พ.ศ. 2569 03:30 น.

การเมือง

ชูโมเดลพุทธปัญญาประดิษฐ์ รับมือ AI ไร้จริยธรรมใช้ก่อสงคราม ทางรอดของมนุษยชาติ

วันจันทร์ ที่ 02 มีนาคม พ.ศ. 2569, 13.44 น.

โลกกำลังก้าวเข้าสู่ยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) ถูกยกระดับเป็น “โครงสร้างพื้นฐาน” ของการตัดสินใจด้านความมั่นคงแห่งชาติ ความขัดแย้งต้นปี 2026 ระหว่างกระทรวงกลาโหมสหรัฐฯ (DoD) หรือเพนตากอน กับบริษัทพัฒนา AI ชั้นนำ ได้กลายเป็นจุดเปลี่ยนสำคัญทางภูมิรัฐศาสตร์เทคโนโลยี เมื่อ “ค่านิยมความปลอดภัยและสิทธิมนุษยชน” ของภาคเอกชน ปะทะกับ “ความต้องการอำนาจยุทธศาสตร์เต็มรูปแบบ” ของรัฐมหาอำนาจ

จุดชนวน: จากสัญญา 200 ล้านดอลลาร์ สู่ปฏิบัติการจริงในสมรภูมิ

ฤดูร้อนปี 2025 เพนตากอนลงนามสัญญามูลค่าสูงสุดบริษัทละ 200 ล้านดอลลาร์กับ 4 บริษัทยักษ์ใหญ่  เพื่อบูรณาการ AI เข้ากับงานข่าวกรองและการจำลองยุทธศาสตร์ 

แต่สถานการณ์พลิกผันเมื่อวันที่ 3 มกราคม 2026 ในปฏิบัติการ “Operation Absolute Resolve” ที่กรุงการากัส ประเทศเวเนซุเอลา มีรายงานว่า AI ถูกใช้วิเคราะห์ข่าวกรองแบบเรียลไทม์และช่วยคัดเลือกเป้าหมายระหว่างปฏิบัติการจริง ซึ่งส่งผลให้เกิดการสูญเสียชีวิตจำนวนมาก การตั้งคำถามของผู้บริหารบริษัท AI   ต่อบทบาทของโมเดลในภารกิจดังกล่าว นำไปสู่ความตึงเครียดกับเพนตากอนทันที

วันที่ 24 กุมภาพันธ์ 2026 รัฐมนตรีกลาโหม ได้ยื่นคำขาดให้ปลดล็อกข้อจำกัด “ทุกกรณีที่ถูกกฎหมาย” แต่บริษัทปฏิเสธ โดยยืนยัน “เส้นแดง” 2 ประการ ได้แก่ ห้ามใช้กับอาวุธอัตโนมัติเต็มรูปแบบ และห้ามใช้เพื่อสอดแนมประชาชนในวงกว้าง

27 กุมภาพันธ์ 2026 ประธานาธิบดี Donald Trump ประกาศแบนเทคโนโลยีของบริษัท AI   ในหน่วยงานรัฐบาลกลาง และขึ้นบัญชีเป็นความเสี่ยงต่อห่วงโซ่อุปทานความมั่นคงแห่งชาติ ทว่าเพียงไม่ถึง 24 ชั่วโมงต่อมา ในปฏิบัติการโจมตีอิหร่าน มีรายงานว่าหน่วยบัญชาการกลางสหรัฐฯ ยังคงใช้งานโมเดลเดิมในกระบวนการวิเคราะห์สนามรบ สะท้อน “ความย้อนแย้งเชิงโครงสร้าง” เมื่อ AI กลายเป็นโครงสร้างพื้นฐานที่ถอดออกได้ยาก

ศึกอุดมการณ์: ใครควบคุมจริยธรรมของเครื่องจักรสังหาร?

กรณีนี้มิใช่เพียงข้อพิพาทสัญญา หากคือการปะทะกันเรื่อง “อำนาจอธิปไตยในการตีความและควบคุม” ว่าในภาวะสงคราม บริษัทเอกชนมีสิทธิยับยั้งการใช้เทคโนโลยีของตนหรือไม่ ขณะเดียวกัน OpenAI  ได้เข้ารับช่วงสัญญา พร้อมยืนยันคง “เส้นแดง” ด้านจริยธรรมไว้เช่นกัน ยิ่งตอกย้ำว่าประเด็นนี้คือศึกเชิงหลักการ มากกว่าการแข่งขันทางธุรกิจ

หัวใจของความกังวลคือการพัฒนา “ระบบอาวุธปล่อยอัตโนมัติสังหาร” (LAWS) ที่อาจตัดสินใจโจมตีโดยปราศจากการควบคุมโดยมนุษย์อย่างมีความหมาย ท่ามกลางความเสี่ยงจากความคลาดเคลื่อนของข้อมูล และปรากฏการณ์ AI Hallucination คำถามเชิงศีลธรรมจึงยิ่งรุนแรง: เครื่องจักรที่ไร้สำนึกควรมีอำนาจพรากชีวิตหรือไม่?

ทางออกจากสุญญากาศจริยธรรม: “พุทธปัญญาประดิษฐ์”

ท่ามกลางสภาวะเร่งรัดการแข่งขันทางทหาร แนวคิด “พุทธปัญญาประดิษฐ์” (Buddhist Artificial Intelligence) ถูกเสนอเป็นกรอบปทัสถานทางเลือก เพื่อบูรณาการหลักพุทธธรรมเข้ากับการออกแบบและกำกับดูแล AI

งานวิจัยจากวารสารวิชาการของ มหาวิทยาลัยมหาจุฬาลงกรณราชวิทยาลัย ชี้ว่า AI ปัจจุบันตั้งอยู่บน “จริยธรรมเชิงเหตุผลอิงข้อมูล” เท่านั้น ยังขาดมิติประสบการณ์เชิงจิตวิญญาณ แนวคิดพุทธจริยศาสตร์จึงเสนอให้ยกระดับสถาปัตยกรรม AI สู่ “ความเป็นเลิศแบบทวิบาท” คือ ความเป็นเลิศทางเทคโนโลยีควบคู่ความเป็นเลิศทางคุณธรรม

นักปรัชญาไทยอย่าง โสรัจจ์ หงศ์ลดารมภ์ เสนอแนวคิด “Machine Enlightenment” ในเชิงสถาปัตยกรรมจริยธรรม ไม่ใช่ให้เครื่องจักรบรรลุธรรม หากแต่ให้ออกแบบระบบที่มีเป้าหมายสูงสุดเพื่อบรรเทาทุกข์ (Karuna) และตระหนักถึงความเชื่อมโยงพึ่งพากัน (Interdependence)

กรอบปฏิบัติสามารถตีความผ่าน “มรรคมีองค์ 8” ในงานวิศวกรรม เช่น

สัมมาสังกัปปะ: ตั้งเจตนาออกแบบเพื่อไม่เบียดเบียน

สัมมาวายามะ: ตรวจสอบอคติและผลกระทบอย่างต่อเนื่อง

สัมมาสมาธิ: รวมศูนย์ความร่วมมือรัฐ–เอกชน–ประชาสังคม เพื่อเป้าหมายสันติภาพ

หลักกรรมกับการควบคุมโดยมนุษย์

ต่างจากทฤษฎีประโยชน์นิยมที่เน้นผลลัพธ์ พุทธจริยศาสตร์ให้ความสำคัญกับ “เจตนา” (Cetana) เมื่ออำนาจการตัดสินใจสังหารถูกส่งต่อให้จักรกล ความรับผิดชอบเชิงศีลธรรมย่อมถูกตัดขาด ผู้นำสันติภาพโลกอย่าง Daisaku Ikeda แห่ง Soka Gakkai International เคยเตือนถึงอันตรายของอาวุธอัตโนมัติที่ไร้ความลังเลและไร้สำนึกผิด ว่าเป็นการบ่อนทำลายศักดิ์ศรีความเป็นมนุษย์

จุดยืนของพุทธปัญญาประดิษฐ์จึงสอดคล้องกับหลัก “การควบคุมโดยมนุษย์อย่างมีความหมาย” (Meaningful Human Control) ในระบบอาวุธทุกชนิด

บทสรุป: ทางสองแพร่งของอารยธรรม

ความขัดแย้งระหว่างเพนตากอนกับบริษัท AI    ได้เผยให้เห็นความจริงอันน่าตระหนกว่า AI มิใช่เพียงเครื่องมือ แต่เป็นโครงสร้างพื้นฐานของสงครามสมัยใหม่ หากโลกยังขาดกรอบกำกับดูแลสากลที่มีรากฐานลึกซึ้งทางจริยธรรม การแข่งขันทางอาวุธอัจฉริยะอาจเร่งมนุษยชาติสู่หายนะ

คำถามสำคัญจึงมิใช่เพียงว่า “ใครชนะสงคราม AI” แต่คือ “เราจะออกแบบเทคโนโลยีให้รับใช้สันติภาพหรือรับใช้การทำลายล้าง”

ในจุดเปลี่ยนประวัติศาสตร์นี้ แนวคิดพุทธปัญญาประดิษฐ์อาจไม่ใช่เพียงข้อเสนอเชิงปรัชญา หากคือกรอบคิดเชิงระบบที่ท้าทายให้โลกทบทวนว่า อำนาจของอัลกอริทึมควรถูกกำกับด้วยอะไร—ด้วยตรรกะของอาวุธ หรือด้วยเมตตาแห่งมนุษยธรรม.
 

หน้าแรก » การเมือง