ข่าวสาร

| วันอังคาร, 11 มิถุนายน 2567 |
Written by 

ตอนที่ 2 ปัญญาประดิษฐ์ (AI) กับการกำกับดูแลในแง่มุมของกฎหมายและการเตรียมความพร้อมระดับองค์กร


 

ตอนที่ 2 : “การแบ่งระดับความเสี่ยงของปัญญาประดิษฐ์”

จากบทความก่อนหน้าตอนที่ 1 : “ภาพรวมพระราชบัญญัติ AI : EU Artificial Intelligence Act (EU AI ACT)” เรื่องภาพรวมของกฎหมายดังกล่าว ที่คณะมนตรีแห่งสหภาพยุโรป (The Council of the EU) อนุมัติกฎระเบียบด้านปัญญาประดิษฐ์ของสหภาพยุโรป หรือ “EU Artificial Intelligence Act (EU AI ACT)” เมื่อวันที่ 21 พฤษภาคม 2024 ที่ผ่านมา ซึ่งผู้เขียนได้ยกตัวอย่างเนื้อหาที่เป็นสาระสำคัญบางประการ โดยในบทความนี้ ผู้เขียนจะกล่าวลงรายละเอียดของการแบ่งระดับความเสี่ยงของปัญญาประดิษฐ์ ดังต่อไปนี้

• ความเสี่ยง (The AI Classifies AI according to its risk) และหน้าที่ (obligation) :

กฎหมายฉบับนี้แบ่งประเภทความเสี่ยงของปัญญาประดิษฐ์ออกเป็น 4 ระดับ โดยแต่ละระดับมีหน้าที่ที่แตกต่างกันออกไป ได้แก่

1) ความเสี่ยงที่ยอมรับไม่ได้ (Unacceptable Risk) ถือเป็นปัญญาประดิษฐ์ที่ถูกกีดกันหรือห้ามใช้ภายในสหภาพยุโรป (Prohibited AI system) ปัญญาประดิษฐ์ที่ยอมรับไม่ได้ เช่น ระบบ AI ที่มีการหลอกลวงหรือบิดเบือนพฤติกรรมมนุษย์ ระบบประเมินคะแนนความน่าเชื่อถือทางสังคม (Social scoring system) ระบบที่มีการเลือกปฏิบัติต่อบุคคล การจัดหมวดหมู่บุคคลด้วยข้อมูลชีวมิติหรือข้อมูลอ่อนไหว การแสวงหาผลประโยชน์จากกลุ่มคนเปราะบาง การระบุตัวตนระยะไกลด้วยข้อมูลชีวภาพในพื้นที่สาธารณะ ฯลฯ เว้นแต่การใช้งานจะเข้าข้อยกเว้นตามกฎหมาย

2) ความเสี่ยงสูง (High Risk) เป็นระดับความเสี่ยงที่ถูกควบคุมมากที่สุด อาทิ ระบบที่ใช้ไบโอเมทริกซ์ (เช่น การระบุตัวตนและการจัดหมวดหมู่ของบุคคลโดยใช้ไบโอเมทริกซ์) การจัดการและการดำเนินงานโครงสร้างพื้นฐานที่สำคัญ (เช่น การจราจรทางถนนและการจัดหาพลังงาน) การศึกษาและการฝึกอาชีพ (เช่น การประเมินนักศึกษาในสถาบันการศึกษา) การจ้างงานและการจัดการคนงาน (เช่น การสรรหา การประเมินผลการปฏิบัติงาน หรือการจัดสรรงาน) การให้คะแนนเครดิตและการส่งบริการฉุกเฉิน การประเมินความน่าเชื่อถือของหลักฐานหรือการวิเคราะห์อาชญากรรม ฯลฯ โดยก่อนที่จะวางระบบ AI ที่มีความเสี่ยงสูงออกสู่ตลาดหรือให้บริการในสหภาพยุโรป บริษัทต่าง ๆ จะต้องดำเนินการ “การประเมินความสอดคล้อง (Conformity Assessment)” และปฏิบัติตามข้อกำหนดเพื่อให้แน่ใจว่าระบบมีความปลอดภัย เป็นมาตรการเชิงปฏิบัติ ผู้ให้บริการจะต้องให้ข้อมูลเกี่ยวกับระบบ AI ที่มีความเสี่ยงสูง เพื่อให้เกิดความโปร่งใสสำหรับผู้มีส่วนได้ส่วนเสียทั้งหมด โดยผู้ให้บริการ AI ต้องจัดให้มีการประเมินและบริหารความเสี่ยง (Risk Management system) จัดให้มีการบริหารจัดการข้อมูล (Data governance) จัดทำเอกสารเกี่ยวกับ Technical documentation การออกแบบระบบ AI ให้มีการบันทึกเหตุการณ์ (Record-keeping) การจัดให้มีความปลอดภัยทางไซเบอร์ และข้อกำหนดอื่น ๆ ตามที่กฎหมายกำหนด การใช้ระบบ AI ที่มีความเสี่ยงสูงอาจส่งผลกระทบต่อสิทธิขั้นพื้นฐาน ดังนั้น ผู้ปฏิบัติงานที่เป็นหน่วยงานที่อยู่ภายใต้กฎหมายมหาชนหรือผู้ประกอบการเอกชนที่ให้บริการสาธารณะ และผู้ปฏิบัติงานที่ให้บริการระบบ AI ที่มีความเสี่ยงสูงจะต้องดำเนินการประเมินผลกระทบต่อสิทธิขั้นพื้นฐานอย่างเหมาะสม

3) ความเสี่ยงจำกัด (Limited Risk) เช่น แชทบอท (Chatbot), วิดีโอที่สร้างโดย AI ฯลฯ โดยระบบ AI ในระดับความเสี่ยงนี้จะต้องมีความโปร่งใส (Transparency) จะต้องมีการแจ้งเตือนให้บุคคลผู้ถูกประมวลผลทราบว่าการประมวลผลนั้นมีการใช้ระบบ AI ร่วมด้วย

4) ความเสี่ยงน้อย (Minimal Risk) เช่น วิดีโอเกมที่ใช้ AI ตัวกรองสแปมอีเมล หรือระบบการจัดการคลังสินค้า แม้จะเป็นระดับความเสี่ยงน้อยที่สุดไม่มีข้อจำกัดหรือข้อบังคับใด ๆ อย่างไรก็ตาม ควรปฏิบัติตามหลักการทั่วไป เช่น การกำกับดูแล การไม่เลือกปฏิบัติ การคุ้มครองข้อมูลส่วนบุคคล และความยุติธรรม

 

สรุป การแบ่งระดับความเสี่ยงของปัญญาประดิษฐ์ จะช่วยให้องค์กรสามารถกำกับดูแลและควบคุมผลกระทบที่อาจจะเกิดขึ้นกับผู้ใช้งาน ซึ่งผู้อ่านจะเห็นได้ว่าไม่ว่าปัญญาประดิษฐ์นั้นจะอยู่ในระดับความเสี่ยงใด ผู้ที่เกี่ยวข้องควรดำเนินการภายใต้หลักการกำกับดูแล ความโปร่งใส การไม่เลือกปฏิบัติและความปลอดภัยที่เหมาะสม ในบทความถัดไปผู้เขียนจะกล่าวถึงภาพรวมของขั้นตอนการเตรียมความพร้อมระดับองค์กรที่เกี่ยวข้องกับการกำกับดูแลปัญญาประดิษฐ์ โปรดติดตามในบทความต่อไป

 

 

อ้างอิงข้อมูล “กฎหมายปัญญาประดิษฐ์ของสหภาพยุโรป” หรือ “EU Artificial Intelligence Act (EU AI ACT)”

Last modified on วันอังคาร, 11 มิถุนายน 2567