ข่าวสาร

| วันอังคาร, 18 มิถุนายน 2567 |
Written by 

ตอนที่ 3 ปัญญาประดิษฐ์ (AI) กับการกำกับดูแลในแง่มุมของกฎหมายและการเตรียมความพร้อมระดับองค์กร

 

ตอนที่ 3 : “ขั้นตอนการเตรียมความพร้อมระดับองค์กร””

จากบทความก่อนหน้าที่ผู้เขียนได้กล่าวไปใน ตอนที่ 2 : การแบ่งระดับความเสี่ยงของปัญญาประดิษฐ์  ในบทความนี้ผู้เขียนจะนำเสนอเกี่ยวกับภาพรวมของการเตรียมความพร้อมระดับองค์กรเพื่อให้การใช้งานปัญญาประดิษฐ์ภายในองค์กรของท่าน ถูกกำกับให้สอดคล้องตามที่กฎหมายกำหนด

ภาพรวมของการเตรียมความพร้อมที่เกี่ยวข้องกับปัญญาประดิษฐ์ในระดับองค์กร ผู้เขียนนำเสนอแนวทางการปฏิบัติ ดังต่อไปนี้

1) การเข้าใจบริบทองค์กร : องค์กรต้องพิจารณาถึงวัตถุประสงค์ของการใช้งานระบบ AI ที่องค์กรมีการพัฒนาหรือมีการนำ AI ไปใช้

2) การกำหนดขอบเขตของระบบการบริหารจัดการ AI : การระบุวัตถุประสงค์การใช้งาน AI การระบุส่วนงานที่เกี่ยวข้อง การกำหนดและจัดประเภทของ AI การกำหนดบุคคลที่มีส่วนเกี่ยวข้อง รวมถึงผู้มีส่วนได้ส่วนเสีย

3) การให้ความสำคัญโดยผู้บริหารระดับสูง : การกำหนดทิศทางขององค์กรในการบริหารจัดการ AI การกำหนดนโยบายการสื่อสารภายในองค์กร การกำหนดบทบาทหน้าที่ รวมถึงการสนับสนุนด้านทรัพยากรที่สำคัญ

4) การประเมินความเสี่ยงเกี่ยวกับ AI : การประเมินความเสี่ยง ผลกระทบ และการจัดทำแผนบริหารจัดการความเสี่ยง (AI Risk Management System) โดยที่การประเมินความเสี่ยงดังกล่าว ควรคำนึงถึงหลักการกำกับดูแลและข้อกำหนดที่เกี่ยวข้อง อาทิ การกำกับดูแลข้อมูล (Data Governance) ความโปร่งใสและการแจ้งถึงการใช้เทคโนโลยีปัญญาประดิษฐ์ (Transparency and Provision of Information to Deployers) หลักความถูกต้องและการรักษาความปลอดภัย (Accuracy and Cybersecurity) การคุ้มครองข้อมูลส่วนบุคคล (Data Privacy) และข้อกำหนดอื่นที่เกี่ยวข้อง (Compliance with the Requirements)

5) การจัดทำเอกสารที่เกี่ยวข้อง เพื่อให้มีการกำกับดูแลและวางแนวทางการปฏิบัติเกี่ยวกับระบบ AI เช่น นโยบายการกำกับปัญญาประดิษฐ์ แนวทางการปฏิบัติ เอกสารการประเมินความเสี่ยง แนวทางปฏิบัติสำหรับปัญญาประดิษฐ์ต้องห้าม (Prohibited AI Practices) ฯลฯ

6) การสร้างความตระหนักและการสื่อสารภายในองค์กร ให้บุคลากรที่เกี่ยวข้องเข้าใจถึงวัตถุประสงค์การใช้งานและกำกับให้มีการใช้งานปัญญาประดิษฐ์อย่างเหมาะสม

7) การเฝ้าระวัง วิเคราะห์ และการตรวจประเมิน องค์กรต่าง ๆ ควรต้องดำเนินการตรวจสอบระบบ AI เป็นระยะ ๆ เพื่อให้มั่นใจว่ามีการปฏิบัติตามข้อกำหนดอย่างเหมาะสม ทั้งจริยธรรมของปัญญาประดิษฐ์ การตรวจสอบอคติ และความเสี่ยงของข้อมูล สำหรับปัญญาประดิษฐ์ที่มีการประเมินเข้าความเสี่ยงสูง องค์กรต้องมีการประเมินความสอดคล้องตามการควบคุมภายในตามที่กฎหมายกำหนด (Conformity assessment Procedure based on internal control) และการประเมินระบบการจัดการคุณภาพและการประเมินเอกสารทางเทคนิคตามที่กฎหมายกำหนด (Conformity based on an assessment of the quality management system and an assessment of the technical documentation)

8) การทบทวนและปรับปรุง ระบบหรือกระบวนการให้ยังคงสอดคล้องต่อข้อกำหนดหรือมาตรฐานที่เกี่ยวข้อง

 

สรุป การใช้ปัญญาประดิษฐ์หากไม่มีการกำกับดูแลอาจก่อให้เกิดผลกระทบต่อผู้ถูกใช้งานและบทลงโทษทางกฎหมาย ซึ่งส่งผลต่อชื่อเสียง ความเชื่อมั่นขององค์กร รวมทั้งเมื่อพิจารณาถึงบทลงโทษของกฎหมายที่ค่อนข้างรุนแรงและมีค่าปรับที่สูง การเริ่มต้นโดยเร็วเป็นสิ่งสำคัญเพื่อให้องค์กรเตรียมความพร้อมและให้แน่ใจว่าการให้บริการ การพัฒนา หรือการใช้งานระบบปัญญาประดิษฐ์ภายในองค์กรนั้น เป็นไปตามที่กฎหมายกำหนด ทั้งนี้ ในบทความถัดไป ผู้เขียนจะกล่าวลงรายละเอียดเกี่ยวกับหน้าที่และการเตรียมความพร้อมด้านการกำกับดูแลในแต่ละหัวข้อ การประเมินและเอกสารที่เกี่ยวข้อง เพื่อวางแผนการดำเนินงานขององค์กร โปรดติดตามในบทความต่อไป