top of page

จาก Vision สู่ Execution: วางระบบ AI Governance เพื่อขับเคลื่อนองค์กรอย่างมีทิศทาง



ปัจจุบัน AI ได้กลายเป็นเทคโนโลยีที่มีบทบาทสำคัญในหลายภาคส่วน ตั้งแต่การเงิน ธุรกิจไปจนถึงอุตสาหกรรมการผลิต ซึ่งเข้ามาช่วยในการเร่งผลลัพธ์และเพิ่มความแม่นยำในการตัดสินใจ แต่ในอีกมุมหนึ่ง เทคโนโลยีนี้ก็ได้สร้างความท้าทายใหม่ที่องค์กรต้องรับมือ โดยเฉพาะอย่างยิ่งเรื่อง ความเสี่ยงที่มองไม่เห็น  เช่น ความลำเอียงของอัลกอริธึม (AI Bias) ความไม่โปร่งใสในการตัดสินใจของระบบ และประเด็นด้านสิทธิในข้อมูลส่วนบุคคล หรือ ภัยคุกคามด้านข้อมูล (Data-Related Threats) ซึ่งสามารถส่งผลกระทบต่อความน่าเชื่อถือขององค์กร ความไว้วางใจจากผู้ใช้งาน และเสถียรภาพของธุรกิจโดยรวม


เพื่อให้องค์กรสามารถใช้ AI ได้อย่างมั่นใจและรับมือกับความเสี่ยงเหล่านี้อย่างมีประสิทธิภาพ บทความนี้จะพาผู้อ่านไปร่วมพูดคุยกับคุณ โรจนวิทย์ บุตรปะสะ ตำแหน่ง Managing Consultant จาก TIME Consulting ที่จะมาแบ่งปันมุมมองเกี่ยวกับแนวโน้ม ความเสี่ยง และโอกาสที่มาพร้อมกับ AI พร้อมชี้ให้เห็นว่า "การกำกับดูแล AI ไม่ใช่หน้าที่ของฝ่ายเทคโนโลยีเท่านั้น แต่ทุกฝ่ายในองค์กรต้องมีส่วนร่วม" ตั้งแต่การกำหนดนโยบาย โครงสร้าง ไปจนถึงการสร้างวัฒนธรรมความรับผิดชอบร่วมกัน


AI Governance เรื่องใหม่ที่ทุกคนต้องใส่ใจ

ในช่วงหลายปีที่ผ่านมา หลายคนคงคุ้นเคยกับคำว่า Data Governance หรือการกำกับดูแลข้อมูล ซึ่งกลายเป็นประเด็นสำคัญอย่างมากในโลกธุรกิจ เนื่องจากองค์กรต่าง ๆ เริ่มตระหนักถึงคุณค่าของข้อมูล และนำข้อมูลมาใช้ในการวางกลยุทธ์ พัฒนาการดำเนินธุรกิจ และเสริมสร้างความได้เปรียบทางการแข่งขัน อย่างไรก็ตาม ปัจจุบันเทคโนโลยีไม่ได้หยุดอยู่เพียงแค่เรื่องของข้อมูลอีกต่อไป เพราะ ปัญญาประดิษฐ์ (AI) ได้เข้ามามีบทบาทสำคัญในการสนับสนุนการตัดสินใจในกระบวนการทำงาน ช่วยสร้างคุณประโยชน์ในหลากหลายมิติ ทั้งในระดับธุรกิจ องค์กร อุตสาหกรรม และเมื่อ AI มีบทบาทมากขึ้น การกำกับดูแลการใช้งาน AI อย่างปลอดภัย โปร่งใส และมีจริยธรรม จึงกลายเป็นประเด็นสำคัญที่องค์กรไม่สามารถมองข้ามได้ ซึ่งทำให้แนวคิดเรื่อง "AI Governance" ถือกำเนิดขึ้น เพื่อวางกรอบแนวทางการพัฒนา การใช้งาน และการควบคุม AI อย่างมีความรับผิดชอบ สร้างความเชื่อมั่นให้กับผู้ใช้งาน ลูกค้า และสังคมโดยรวม


โดยคุณโรจนวิทย์ บุตรปะสะ ได้ร่วมอธิบายถึงความสำคัญของ AI Governance หรือ การกำกับดูแลปัญญาประดิษฐ์ว่า “AI Governance หรือ การกำกับดูแลปัญญาประดิษฐ์ คือ กระบวนการและแนวทางในการควบคุม ดูแล และกำหนดทิศทางการใช้งาน AI ให้เป็นไปอย่างเหมาะสม ปลอดภัย และอยู่ในกรอบของกฎหมายและจริยธรรม โดยมีเป้าหมายสำคัญคือการสร้างความเชื่อมั่นว่า AI จะถูกนำมาใช้อย่างรับผิดชอบ ไม่ละเมิดสิทธิ์ และไม่สร้างความเสียหาย พร้อมสอดคล้องกับมาตรฐานทั้งในระดับองค์กร ประเทศ และระดับสากล” สำหรับองค์กรในปัจจุบัน การมีกรอบกำกับดูแลที่ชัดเจนไม่ใช่เพียงการแสดงให้เห็นว่าองค์กรสามารถปรับตัวและนำเทคโนโลยีใหม่ ๆ มาใช้ได้อย่างทันสมัยเท่านั้น แต่ยังเป็นการยืนยันถึงความตั้งใจในการคุ้มครองข้อมูลของลูกค้า เสริมสร้างความไว้วางใจ และลดความเสี่ยงจากการใช้ AI อย่างไม่เหมาะสม ที่สำคัญไปกว่านั้น องค์กรต้องสามารถ "พิสูจน์" ได้ว่า AI ที่นำมาใช้นั้นผ่านการตรวจสอบอย่างรอบด้าน ทั้งในแง่ของความถูกต้อง ความเป็นธรรม และความสอดคล้องกับจริยธรรมทางธุรกิจ การใช้ AI ในวันนี้จึงไม่ใช่แค่การมุ่งเน้นที่ "ผลลัพธ์" เท่านั้น แต่ต้องให้ความสำคัญกับ "กระบวนการ" และ "หลักการ" ที่อยู่เบื้องหลังการตัดสินใจของ AI ด้วย




เปิดมุมมองความเสี่ยง เมื่อองค์กรไม่มีระบบกำกับดูแล AI ที่ชัดเจน

การนำปัญญาประดิษฐ์ (AI) เข้ามาในกระบวนการทำงานขององค์กร ไม่ได้หมายถึงแค่การเพิ่ม "เครื่องมือใหม่" เพื่อช่วยงานเท่านั้น แต่ยังเป็นการเปลี่ยนแปลง "แนวคิด" ในการจัดการข้อมูลและการตัดสินใจอย่างมีนัยสำคัญ องค์กรจำเป็นต้องปรับแนวทางการทำงานให้เน้นความรวดเร็ว แม่นยำ และประสิทธิภาพยิ่งขึ้น เพื่อเสริมสร้างความสามารถในการแข่งขัน และขับเคลื่อนการเติบโตอย่างมั่นคงและยั่งยืนในระยะยาว อย่างไรก็ตาม การนำ AI มาใช้ไม่ได้ขึ้นอยู่กับเทคโนโลยีเพียงอย่างเดียว แต่ต้องอาศัย "ระบบกำกับดูแล" (AI Governance) ที่ชัดเจนและรัดกุม เพื่อควบคุมความเสี่ยงที่อาจเกิดขึ้นจากการใช้ข้อมูลและการตัดสินใจที่ขับเคลื่อนด้วย AI


โดยคุณโรจนวิทย์ ได้กล่าวถึงประเด็นนี้ว่า "AI Governance คือด่านที่สองในการปกป้องข้อมูลของพนักงานและลูกค้า องค์กรต้องมีแนวทางกำกับดูแลการใช้ AI ตั้งแต่ขั้นตอนการเก็บข้อมูล การประมวลผล ไปจนถึงการนำข้อมูลไปใช้ตัดสินใจ หากขาดเกณฑ์หรือระบบที่เหมาะสม องค์กรอาจเสี่ยงต่อการใช้ข้อมูลผิดพลาด ซึ่งส่งผลต่อความมั่นคงทางธุรกิจและชื่อเสียงองค์กร อีกทั้งแหล่งข้อมูลที่ใช้ในการฝึก AI ซึ่งมักมีความหลากหลายและบางครั้งตรวจสอบได้ยาก ก็เป็นอีกจุดเสี่ยง หากข้อมูลไม่ผ่านการควบคุมและบริหารจัดการที่มีประสิทธิภาพก็อาจนำไปสู่การตัดสินใจที่ไม่ยุติธรรม (Uncontrolled Autonomy) ซึ่งคือภัยคุกคามจากการควบคุมไม่ได้" ดังนั้น การสร้างระบบ AI Governance ที่เข้มแข็ง ไม่เพียงช่วยปกป้ององค์กรจากความเสี่ยง แต่ยังช่วยสร้างความมั่นใจให้กับลูกค้าและผู้มีส่วนได้ส่วนเสีย ว่า AI จะถูกใช้งานอย่างมีความรับผิดชอบ เคารพสิทธิส่วนบุคคล และเป็นรากฐานสำคัญในการเสริมสร้างความแข็งแกร่งขององค์กรในอนาคต


ทั้งนี้ คุณโรจนวิทย์ ได้ยกตัวอย่างที่น่าสนใจเกี่ยวกับปัญหา AI Governance คือกรณีของบริษัท OpenAI ซึ่งเผชิญกับกระแสวิพากษ์วิจารณ์อย่างรุนแรงเกี่ยวกับการบริหารความเสี่ยงของโมเดล GPT รุ่นใหม่ หลังจากที่บริษัทเปิดตัว GPT-4 Turbo และอนุญาตให้นักพัฒนาและองค์กรต่าง ๆ สามารถสร้าง "Custom GPTs" ได้อย่างกว้างขวาง ปรากฏว่ามีบางกลุ่มนำโมเดลไปใช้สร้างบอตปลอม (Botnet) ตัวเป็นบุคคลมีชื่อเสียงและเผยแพร่ข้อมูลผิด ๆ บนโซเชียลมีเดียโดยไม่มีการควบคุมที่เพียงพอ แม้ว่า OpenAI จะมีแนวทางในการตรวจสอบการใช้งาน แต่ก็ถูกวิพากษ์ว่ามาตรการดังกล่าวยังไม่เข้มงวด และขาดความโปร่งใสในการเปิดเผยว่าองค์กรควบคุมและป้องกันการนำโมเดลไปใช้ในทางที่ผิดอย่างไร กรณีนี้จึงกลายเป็นตัวอย่างสำคัญที่สะท้อนให้เห็นว่า การเร่งสร้างนวัตกรรมโดยไม่มีโครงสร้างกำกับดูแลที่เหมาะสม อาจนำไปสู่ความเสี่ยงทางสังคมขนาดใหญ่ และตอกย้ำความจำเป็นที่องค์กรต้องลงทุนในระบบการกำกับดูแล AI ตั้งแต่ขั้นตอนการออกแบบ ไปจนถึงการใช้งานจริงอย่างจริงจัง


สถานการณ์แนวโน้มของ AI Governance ทั่วโลกและในไทย

การกำกับดูแลปัญญาประดิษฐ์ (AI) ได้กลายเป็นประเด็นสำคัญในระดับโลก โดยเฉพาะในประเทศที่เทคโนโลยีดิจิทัลเป็นหัวใจในการขับเคลื่อนเศรษฐกิจและสังคม ตัวอย่างเช่น สหภาพยุโรป (EU) ได้ออกแบบกรอบการกำกับดูแลที่ชัดเจน โดยจำแนกระบบ AI ตามระดับความเสี่ยง และใช้มาตรการควบคุมตามความเข้มข้นของแต่ละประเภท ขณะที่สหรัฐอเมริกาได้ริเริ่ม “AI Bill of Rights” เพื่อปกป้องสิทธิขั้นพื้นฐานของประชาชนจากการใช้งาน AI ที่อาจส่งผลกระทบต่อชีวิตและความเป็นส่วนตัว ด้านองค์การเพื่อความร่วมมือทางเศรษฐกิจและการพัฒนา (OECD) ก็ได้เสนอหลักการสำคัญที่เน้นการใช้งาน AI อย่างมีความรับผิดชอบ ตรวจสอบได้ และคำนึงถึงผลกระทบต่อมนุษย์


โดยคุณโรจนวิทย์ ได้ให้มุมมองในส่วนนี้ไว้ว่า  “ไม่ว่าจะเป็น EU, สหรัฐอเมริกา หรือ OECD ต่างก็มีความพยายามกำหนดกรอบชัดเจนในการควบคุม AI โดยเน้นทั้งด้านความปลอดภัย ความโปร่งใส และความรับผิดชอบในการใช้งาน” คำกล่าวนี้สะท้อนให้เห็นว่าการกำกับดูแล AI กำลังเปลี่ยนผ่านจากแนวคิดเชิงนโยบายไปสู่การลงมือปฏิบัติอย่างเป็นรูปธรรมในหลายประเทศ และเมื่อย้อนกลับมามองประเทศไทย แม้ว่าการกำกับดูแล AI จะยังอยู่ในระยะเริ่มต้น แต่ก็มีสัญญาณความเคลื่อนไหวที่น่าจับตา เช่น สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (EDDA) ได้ริเริ่มแนวทางเบื้องต้นในการส่งเสริมให้หน่วยงานและองค์กรใช้ AI อย่างมีจริยธรรมและรอบคอบ นอกจากนี้ ยังมีความพยายามร่วมมือจากหลากหลายภาคส่วน ไม่ว่าจะเป็นภาครัฐ ภาคเอกชน หรือสมาคมวิชาชีพ ที่เริ่มจัดเวทีเสวนา ผลักดันแนวทางปฏิบัติ และแลกเปลี่ยนความรู้เกี่ยวกับ AI อย่างต่อเนื่อง ซึ่งประเทศไทยจะยังไม่มีกรอบการกำกับดูแล AI กลางที่ชัดเจน แต่การเคลื่อนไหวในปัจจุบันถือเป็น “ก้าวแรกที่สำคัญ” ที่อาจนำไปสู่การพัฒนานโยบายและโครงสร้างกำกับดูแลที่เข้มแข็งและยั่งยืนในอนาคต แสดงถึงความตื่นตัว และความตั้งใจจริงในการสร้างวัฒนธรรมการใช้ AI ที่มีความรับผิดชอบ

AI Governance แนวทางกำกับ ดูแล และสร้างความไว้วางใจในองค์กร

เมื่อปัญญาประดิษฐ์ (AI) กลายเป็นฟันเฟืองหลักในกระบวนการทำงานขององค์กร ความรับผิดชอบในการใช้งานเทคโนโลยีนี้จึงไม่ใช่หน้าที่ของฝ่ายใดฝ่ายหนึ่ง แต่เป็นเรื่องของ "ทุกคนในองค์กร" ที่ต้องมีส่วนร่วมในการวางรากฐาน เพื่อให้ AI ที่นำมาใช้มีความน่าเชื่อถือ ตรวจสอบได้ และตั้งอยู่บนหลักจริยธรรม ซึ่งคุณโรจนวิทย์ได้ให้มุมมองไว้อย่างน่าสนใจว่า “จุดเริ่มต้นที่ดีที่สุด คือการเข้าใจว่า AI ถูกใช้กับใคร มีผลต่อใคร แล้วจึงประเมินว่าควรใช้กรอบใดในการกำกับดูแล ทำให้แนวทางการกำกับดูแลอย่างเช่น NIST AI RMF, ISO/IEC 42001 หรือ EU AI Act จึงเป็นเครื่องมือสำคัญในการประเมินความเสี่ยงและวางมาตรฐาน แต่หัวใจสำคัญอยู่ที่ "การนำไปปรับใช้ให้เหมาะสมกับบริบทของแต่ละองค์กร" มากกว่าการยึดตามกรอบใดกรอบหนึ่งแบบตายตัว”

โดยกรอบแนวทางในการบริหารความเสี่ยงและกำกับดูแลที่คุณโรจนวิทย์ได้ยกตัวอย่างมา เช่น

  • NIST AI RMF (Risk Management Framework) เป็นกรอบการบริหารความเสี่ยงที่ออกแบบมาเพื่อช่วยให้องค์กรสามารถ ระบุ, ประเมิน, วัดผล, และลดความเสี่ยงที่เกิดจากการใช้ AI ได้อย่างเป็นระบบ โดยเน้นที่คุณลักษณะของระบบ AI ที่ "น่าเชื่อถือ" (Trustworthy AI) ได้แก่ ความปลอดภัย ความเป็นส่วนตัว ความยุติธรรม ความโปร่งใส และการควบคุมโดยมนุษย์ NIST AI RMF เหมาะอย่างยิ่งสำหรับองค์กรที่ต้องการพัฒนา ระบบการกำกับดูแลภายใน และสร้าง ความมั่นใจให้กับผู้มีส่วนได้ส่วนเสีย โดยเฉพาะในภาคธุรกิจและรัฐบาล

  • ISO/IEC 42001 เป็นมาตรฐานสากลฉบับแรกที่ออกแบบมาเพื่อเป็นแนวทางการจัดตั้ง “ระบบการจัดการปัญญาประดิษฐ์ (AI Management System)” โดยเน้นการนำ AI ไปใช้อย่างมีจริยธรรม โปร่งใส ปลอดภัย และตรวจสอบได้ โครงสร้างของมาตรฐานนี้คล้ายกับ ISO 27001 หรือ ISO 9001 คือกำหนดให้มีนโยบาย ขั้นตอนการปฏิบัติงาน การประเมินความเสี่ยง และการควบคุมภายในสำหรับการพัฒนาและใช้งาน AI โดยองค์กรที่ต้องการ สร้างระบบกำกับดูแลภายในอย่างเป็นทางการ ควรใช้ ISO/IEC 42001 เป็นเครื่องมือหลัก เพราะสามารถ ยกระดับความน่าเชื่อถือของ AI ที่พัฒนาในองค์กร โดยเฉพาะกับคู่ค้าและลูกค้าระดับนานาชาติ รองรับการ รับรอง (Certification) ซึ่งจะเป็นจุดแข็งทางการแข่งขันในอนาคต และเชื่อมโยงการจัดการ AI เข้ากับระบบบริหารจัดการอื่นในองค์กร (Integrated Management Systems) ทำให้เกิดความสอดคล้องทั่วทั้งองค์กร

  • EU AI Act  ซึ่งกำหนดระดับความเสี่ยงของระบบ AI พร้อมแนวทางควบคุมที่เหมาะสมตามแต่ละประเภท EU AI Act ไม่เพียงแต่มีผลกับบริษัทในยุโรป แต่ยัง ส่งผลกระทบระดับโลก คล้ายกับ GDPR เพราะบริษัทต่างชาติที่ต้องการเข้าตลาด EU จะต้อง ปรับกระบวนการพัฒนา AI ให้สอดคล้องกับกฎหมาย อีกทั้งยังเป็นแรงผลักให้เกิด การสร้างระบบกำกับดูแล AI ภายในองค์กร (AI Governance Unit) เพื่อเตรียมความพร้อมต่อข้อกำหนดเฉพาะ และช่วยส่งสัญญาณให้ประเทศอื่นเร่งออกกฎหมายในลักษณะเดียวกัน ซึ่งอาจเป็น “มาตรฐานกลายๆ” สำหรับผู้ผลิต AI ทั่วโลก

 

แนวทางเหล่านี้ถือเป็นเครื่องมือที่ช่วยให้องค์กรวางกรอบความคิดและระบบการกำกับดูแลได้อย่างเป็นระบบ แต่หัวใจสำคัญไม่ได้อยู่ที่การยึดกรอบใดกรอบหนึ่งแบบตายตัว แต่อยู่ที่การ "ประยุกต์ใช้ให้เหมาะสมกับสภาพแวดล้อม โครงสร้างองค์กร และวัตถุประสงค์เฉพาะทางของแต่ละองค์กร" เพราะแต่ละองค์กรมีระดับความซับซ้อน ทรัพยากร และความเสี่ยงที่แตกต่างกัน ดังนั้น การเลือกใช้แนวทางใดจึงไม่ใช่เรื่องของการเลือกสิ่งที่ดีที่สุดในเชิงทฤษฎีแต่เป็นเรื่องของการเลือกสิ่งที่ใช้ได้จริง และสอดคล้องกับเป้าหมายขององค์กร


นอกจากนี้ คุณโรจนวิทย์ ได้ทิ้งท้ายว่า “การเริ่มต้นวางโครงสร้าง AI Governance ไม่ใช่ทางเลือก แต่เป็นภารกิจเร่งด่วนที่ควรเกิดขึ้น ตอนนี้เรานำ AI มาใช้กันแล้วอย่างแพร่หลาย แต่คำถามคือ เราพร้อมรับผิดชอบต่อผลลัพธ์ที่ตามมาหรือยัง? ตอนนี้หลายประเทศได้เดินหน้าไปไกล การรอให้เกิดปัญหาแล้วค่อยตั้งรับอาจไม่ทันการณ์ ต่อบริบทความก้าวหน้าของเทคโนโลยี กระบวนการ และพฤติกรรมผู้ใช้งานที่เปลี่ยนแปลงไป โดยเฉพาะเมื่อความเสียหายจากการใช้งานที่ขาดความรอบคอบอาจกระทบทั้งผู้ใช้งานและความเชื่อมั่นต่อองค์กรในระยะยาว ในบริบทของไทย แม้โครงสร้างจะยังอยู่ระหว่างการพัฒนา แต่ความเข้าใจและการริเริ่มจากภายในองค์กร ถือเป็นจุดเริ่มต้นที่ดีของการเปลี่ยนแปลง การลงมือสร้างแนวทางควบคุม ตั้งคำถามต่อการใช้งาน AI และยกระดับความรู้ในทีมงาน ล้วนเป็นการเตรียมความพร้อมที่จับต้องได้ AI จะไม่มีวันหยุดพัฒนา หากวันนี้องค์กรเริ่มออกแบบแนวทางที่ยึดโยงกับคุณค่าของมนุษย์เป็นหลัก นั่นไม่ใช่แค่การป้องกันความเสี่ยง แต่คือการลงทุนเพื่อความยั่งยืนขององค์กรในระยะยาว



bottom of page