บทนำ

ปัจจุบันประเทศต่าง ๆ มุ่งนำเทคโนโลยีสมัยใหม่มาใช้ในการพัฒนาแบบก้าวกระโดดเพราะเห็นความสำคัญของการพัฒนาในยุคเทคโนโลยี 4.0. โดยเฉพาะการพูดถึง 4 ปัจจัยทางเทคโนโลยีที่พลิกผันสังคม เศรษฐกิจ การเมือง เราเรียกว่า ABCD กล่าวคือ A – Artificial intelligence & Automation / B – Block chain / C – Cybersecurity & Cloud computing / D – Data โดยเฉพาะเทคโนโลยีปัญญาประดิษฐ์และเทคโนโลยีหุ่นยนต์ถูกนำมาเรียกว่าเป็นการพัฒนา *เศรษฐกิจสีเงิน (Silver Economy) [1] อย่างไรก็ตามการพัฒนาประเทศต้องอยู่ภายใต้กรอบของบริบทสังคมโลก นั่นก็คือการพัฒนาที่สอดคล้องกับแนวทางการพัฒนาที่ยั่งยืน (Sustainable development) การนำเอาปัจจัยทางเทคโนโลยีดังกล่าวเข้ามาใช้เพื่อทดแทนแรงงานมนุษย์จะต้องสอดคล้องกับเป้าหมายในการอนุรักษ์สิ่งแวดล้อมและลดการใช้ทรัพยากรอย่างฟุ่มเฟือย  ปัจจุบันนี้กลุ่มประเทศต่าง ๆ ได้เห็นความสำคัญของการนำเอาเทคโนโลยีเหล่านี้มาใช้แต่ก็ทราบดีว่าส่งผลกระทบต่อสังคม เศรษฐกิจและสิ่งแวดล้อมอย่างไรบ้าง ยกตัวอย่างเช่น กลุ่มประเทศในสหภาพยุโรปได้มีการทำรายงานชี้แจงภายหลังจากเก็บรวบรวมข้อมูลว่าเทคโนโลยีนั้นจะส่งผลกระทบต่อสังคมเศรษฐกิจการเมืองและกฎหมายอย่างไร

ในส่วนของประเทศไทยนั้น ผู้เขียนขอสรุปเพื่อนำเสนอตามหัวข้อดังต่อไปนี้ 1) ผลกระทบต่อสังคม 2) ผลกระทบต่อเศรษฐกิจและการเมือง 3) ผลกระทบต่อกฎหมายในปัจจุบัน 4) ทิศทางในอนาคต

4. บทสรุปและข้อเสนอแนะ

การเกิดขึ้นของเทคโนโลยีสมัยใหม่ส่งผลต่อความเปลี่ยนแปลงแนวทางในการตรากฎหมายที่เป็นอยู่ รวมถึงแนวนโยบายของรัฐ ปัจจุบันนี้มีอยู่ 3 เรื่องที่ถือว่าเป็นเรื่องสำคัญที่สุดในการนำเอาเทคโนโลยีดังกล่าวมาใช้ประโยชน์ ได้แก่ ประเด็นความเป็นส่วนตัว ประเด็นความมั่นคงปลอดภัยไซเบอร์ และประเด็นแนวทางการบังคับใช้กฎหมายและการกำหนดจริยธรรมที่สอดคล้องกับเทคโนโลยี โดยผู้เขียนขอสรุปเป็นหัวข้อดังต่อไปนี้

ความเป็นส่วนตัว

ปัจจุบันนี้ แม้ว่าเทคโนโลยีจะก้าวหน้าไปมาก แต่กลับกลายเป็นว่าพื้นที่ความเป็นส่วนตัวนั้นลดน้อยลง มีการคาดการณ์อย่างชัดเจนว่ารูปแบบของสังคมในอนาคตจะมีพื้นที่ความเป็นส่วนตัวน้อยลงแต่จะเป็นพื้นที่ของส่วนรวมมากขึ้นเพราะเทคโนโลยีนั้นถูกนำไปใช้ในหลากหลายรูปแบบไม่ว่าจะเป็นทางอุตสาหกรรม พาณิชยกรรม รวมถึงเรื่องของความมั่นคงของชาต ยกตัวอย่างกรณีที่เคยเกิดขึ้นแล้ว เช่น การนำเทคโนโลยีไปใช้สอดแนมทางการทหาร กรณีของ เอ็ดเวิร์ด สโนว์เดน (Edward Snowden) ซึ่งเป็นเรื่องของการแทรกแซงโดยใช้อำนาจของรัฐบาลสหรัฐในการตรวจสอบและแทรกแซงซึ่งไม่เป็นไปตามหลักธรรมาภิบาล

หรือการนำโดรนอากาศยานไร้คนขับที่ชื่อว่า Reaper ไปใช้ในทางที่ไม่ชอบด้วยกฎหมาย ทั้งนี้การใช้อากาศยานไร้คนขับบินผ่านเคหสถาน ย่อมสามารถบันทึกภาพและรายละเอียดของความเป็นส่วนตัวต่าง ๆ ได้และก่อให้เกิดการล่วงล้ำแดนส่วนบุคคล หรือในกรณีของอุปกรณ์เครื่องใช้ในครัวเรือนหรืออุปกรณ์ทางการแพทย์ที่สามารถเก็บข้อมูลส่วนบุคคลของผู้ใช้งาน ย่อมสามารถเข้าถึงข้อมูลความเป็นส่วนตัวในทุกรูปแบบ สิ่งที่จะเกิดขึ้นตามมาและเป็นปัญหาทางสังคมอย่างหลีกเลี่ยงไม่ได้ก็คือ ความเหลื่อมล้ำในการเข้าถึงและใช้ประโยชน์จากเทคโนโลยี ทั้งนี้อาจก่อให้เกิดปัญหาการเลือกปฏิบัติ ยกตัวอย่างเช่น การเลือกรับคนเข้าเรียนในสาขาวิชาต่าง ๆ การเลือกรับคนเข้าทำงานในสายอาชีพต่าง ๆ โดยประเมินจากการเก็บข้อมูลส่วนบุคคล

นอกจากนั้นในอนาคตอันใกล้การนำเทคโนโลยีมาใช้ในการวิเคราะห์พฤติกรรมของคนในสังคมว่าจะกระทำความผิดหรือไม่ก่อนที่จะเริ่มกระทำความผิดก็อาจเกิดขึ้นได้ เนื่องจากความสามารถของเทคโนโลยีสามารถเก็บรวบรวมพฤติกรรมที่ก่อให้เกิดความเสี่ยงต่อการกระทำความผิดได้ทุกรูปแบบ

อย่างไรก็ตามสิ่งที่น่ากังวลยิ่งกว่าการก้าวข้ามไปสู่พื้นที่ส่วนตัวก็คือ การรักษาความปลอดภัยของข้อมูล ดังนั้นประเด็นในเรื่องของความมั่นคงปลอดภัยไซเบอร์จึงเป็นเรื่องที่รัฐบาลต่างๆต้องคำนึงถึงเป็นอย่างยิ่ง

ความมั่นคงปลอดภัยไซเบอร์

ปัจจุบันเราได้ยินข่าวสารมากมายเกี่ยวกับความมั่นคงปลอดภัยไซเบอร์ ยกตัวอย่างเช่น การสอดแนมเพื่อเก็บข้อมูลผ่านอุปกรณ์เครื่องใช้ในครัวเรือน การเจาะเข้าสู่ระบบเครือข่ายของซอฟต์แวร์ที่มีผู้ใช้จำนวนมาก รวมถึงการเจาะเข้าสู่ฐานข้อมูลความมั่นคงของแต่ละประเทศ การก่อให้เกิดความเสียหายรูปแบบใหม่นั้นเป็นปัญหาร่วมกันของทุกประเทศ เนื่องจากการเจาะเข้าระบบฐานข้อมูลของประเทศหนึ่งอาจนำไปสู่การก่อการร้าย หรือการโจรกรรมในประเทศอื่น ๆ โดยเฉพาะถ้ามีการโจรกรรมข้อมูลเกี่ยวกับความมั่นคงทางการทหาร หรือความมั่นคงทางเศรษฐกิจของแต่ละประเทศ รวมถึงความปลอดภัยของข้อมูลในกระบวนการยุติธรรม ดังนั้นในปัจจุบันประเทศต่าง ๆ จึงร่วมกันหาทางออกในการสร้างกฎเกณฑ์สากลร่วมกัน เพื่อให้การใช้เทคโนโลยีมีความปลอดภัยในมาตรฐานเดียวกัน การใช้ภาษาโปรแกรมที่มีลักษณะสามารถเชื่อมโยงในการพัฒนาเทคโนโลยีร่วมกันได้ (Interconnectivity) รวมตลอดถึงมาตรฐานของเทคโนโลยีที่นำมาใช้ หลายประเทศได้มีการสร้างกฎเกณฑ์ขึ้นมา

ยกตัวอย่างเช่น สหภาพยุโรปได้มีการกำหนดกฏเกณฑ์ของเทคโนโลยีหุ่นยนต์เอาไว้ใน Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics และรายงานผลกระทบจากการนำเทคโนโลยีหุ่นยนต์และปัญญาประดิษฐ์มาใช้ที่ชื่อว่า Report with recommendations to the Commission on Civil Law Rules on Robotics(2015/2103 (INL)) และ Report on a comprehensive European industrial policy on artificial intelligence and robotics (2018/2088(INI)

หรือประเทศเกาหลีใต้ได้มีการตรากฎหมายที่ชื่อว่า INTELLIGENT ROBOTS DEVELOPMENT AND DISTRIBUTION PROMOTION ACT

ยิ่งไปกว่านั้น หลายประเทศได้มีการก่อตั้งองค์กรหรือสมาคมเพื่อกำหนดกฏเกณฑ์สากล อาทิเช่น Japan robotics Association ประเทศญี่ปุ่น หรือ  Centre de robotique intégrée d’île de France ประเทศฝรั่งเศส เป็นต้น

4.1 แนวทางการบังคับใช้กฎหมายและการกำหนดจริยธรรมในอนาคตเพื่อการพัฒนาประเทศ

สำหรับหัวข้อดังกล่าวสามารถแยกเป็นประเด็นดังต่อไปนี้

4.1.1 การแบ่งแยกระหว่างนิยามของคำว่า “หุ่นยนต์” และ “ปัญญาประดิษฐ์” เพื่อสร้างกฎเกณฑ์ที่เหมาะสม การกำหนดนิยามของคำว่าหุ่นยนต์และปัญญาประดิษฐ์

ภายหลังจากการศึกษาพบว่าเทคโนโลยีปัญญาประดิษฐ์นั้นเป็นเพียงแค่ส่วนหนึ่งของเทคโนโลยีหุ่นยนต์เท่านั้น  ซึ่งเทคโนโลยีหุ่นยนต์คือการนำเอาเทคโนโลยีอัตโนมัติ (Automation) มาพัฒนาเป็นขั้นสูงและการนำเอาเทคโนโลยีปัญญาประดิษฐ์มาหลอมรวมเป็นหนึ่งเดียว  ก่อให้เกิดเทคโนโลยีขั้นสูงที่ถูกแบ่งเป็นอีกประเภทหนึ่งซึ่งจะพูดถึงในลำดับถัดไป เบื้องต้นนั้น  การแบ่งแยกนิยามของหุ่นยนต์และปัญญาประดิษฐ์ก่อให้เกิดแนวทางในการควบคุมที่แตกต่างกันในรายละเอียด  จากผลการศึกษาเปรียบเทียบบทนิยามขององค์กรต่างๆและกฎหมายของกลุ่มประเทศต่าง ๆ ได้ข้อสรุปว่า นิยามของคำว่า “หุ่นยนต์” นั้นประกอบไปด้วยลักษณะดังต่อไปนี้

  1. หุ่นยนต์ต้องมีลักษณะทางกายภาพหรือมีรูปร่างรูปทรงที่จับต้องได้ องค์ประกอบข้อแรกนั้นทำให้เทคโนโลยีปัญญาประดิษฐ์ที่ไม่มีรูปร่างรูปทรงที่จับต้องได้ไม่อยู่ภายใต้นิยามของคำว่าหุ่นยนต์  ยกตัวอย่างเช่น Chatbot แต่ถ้าเป็นหุ่นยนต์ที่มีขนาดเล็กจนมองไม่เห็น แต่มีรูปร่างที่ชัดเจน เช่น Microrobot Nanorobot หรือการนำเอาระบบควบคุมอัตโนมัติไปใช้กับสัตว์บางประเภทหรือแมลงเพื่อค้นหาผู้ประสบภัย เช่น Biobot นั้นยังอยู่ภายใต้นิยามของคำว่าหุ่นยนต์ เนื่องจากมีรูปร่างสัมผัสที่ชัดเจน
  2. หุ่นยนต์นั้นจะต้องมีแหล่งพลังงานเป็นของตนเอง การมีแหล่งพลังงานสำรองเป็นของตนเองนั้นอาจเป็นแหล่งพลังงานในรูปแบบของแบตเตอรี่ ยกตัวอย่างเช่น หุ่นยนต์ที่ชื่อว่า Asimo ซึ่งเป็นของบริษัท Honda หรือแหล่งพลังงานสำรองประเภทอื่น ๆ เช่น ก๊าซหรือน้ำมัน รวมถึงการใช้พลังงานสะอาดเช่นน้ำและอากาศ เช่น  หุ่นยนต์ที่ชื่อว่า gastrobot หรืออาจจะมีการหาและเก็บพลังงานที่อยู่ในธรรมชาติก็เป็นได้ เช่นหุ่นยนต์ที่ชื่อว่า Solar Impulse ซึ่งเป็นเครื่องบินที่ใช้พลังงานแสงอาทิตย์
  3. หุ่นยนต์นั้นจะต้องมีความสามารถในการเคลื่อนไหวและสามารถนำออกใช้งานได้จริงในสภาพแวดล้อมเปิด ตัวอย่างของเงื่อนไขในข้อนี้ปรากฏอยู่ในบทบัญญัติมาตรา 2 กฎหมาย INTELLIGENT ROBOTS DEVELOPMENT AND DISTRIBUTION PROMOTION ACT และมาตรฐานอุตสาหกรรม NF EN ISO 8373 ข้อที่ 3.1 ข้อกำหนดดังกล่าวทำให้เทคโนโลยีทันสมัยหลายลักษณะเช่น ระบบปฏิบัติการไม่สามารถเป็นหุ่นยนต์ได้ เช่น ระบบควบคุมการเคลื่อนไหว Kinect ของ บริษัทไมโครซอฟท์
  4. หุ่นยนต์นั้นต้องมีความสามารถในการสังเกตสิ่งแวดล้อมรอบตัว การสังเกตสิ่งแวดล้อมรอบตัวประกอบไปด้วยการรับรู้จากสิ่งแวดล้อมภายในเครื่องยนต์ของตนเองยกตัวอย่างเช่น ระดับของพลังงานแบตเตอรี่ที่คงเหลือ ตำแหน่งที่ตั้งของหุ่นยนต์โดยสามารถค้นหาได้จาก GPS รวมถึงความเร็วในการเคลื่อนไหวระหว่างการใช้งาน ส่วนการรับรู้จากสิ่งแวดล้อมภายนอกก็คือ การรับรู้ระดับของอุณหภูมิรอบตัว  แสง กิริยาท่าทางของมนุษย์หรือสิ่งมีชีวิตที่มีปฏิสัมพันธ์ร่วมกับหุ่นยนต์  สิ่งกีดขวางและระยะทาง รวมถึงสิ่งแวดล้อมที่ไม่ปลอดภัยต่อการใช้งานโดยการรับรู้จากกลิ่น เช่น สารเคมีอันตราย ฯลฯ
  5. ความสามารถในการตัดสินใจของหุ่นยนต์ ลักษณะข้อนี้เป็นการแบ่งแยกระหว่าง ระบบอัตโนมัติทั่วไป (Automation) กับ หุ่นยนต์ (Robot) ทั้งนี้ความสามารถในการตัดสินใจแก้ปัญหาเป็นลักษณะเฉพาะที่มีในเทคโนโลยีหุ่นยนต์  ยกตัวอย่างเช่น รถไฟอัตโนมัติที่ปรับระดับความเร็วตามขนาดความกว้างของราง และระยะความสั้นความยาวของรางรถไฟ ไม่ถือว่าเป็นหุ่นยนต์ในนิยามที่กำหนดแต่เป็นเพียงระบบอัตโนมัติทั่วไป หรือกรณีของการรักษาด้วยการศัลยกรรมทางไกลด้วยหุ่นยนต์ที่เกิดจากการควบคุมของแพทย์ผู้ผ่าตัด ก็ไม่ถือว่าเป็นหุ่นยนต์ตามนิยามที่กำหนดเพราะยังมีการควบคุมโดยมนุษย์เป็นสาระสำคัญ ปัจจุบันความสามารถในการตัดสินใจนั้นถูกพัฒนาไปสู่ระบบสมองกลที่เรียกว่า Cloud Robotics  ซึ่งเป็นการเชื่อมต่อองค์ความรู้ของหุ่นยนต์ทุกตัวที่อยู่ในระบบเครือข่ายข้อมูลเดียวกันเพื่อแชร์ความรู้และประเมินผลเพื่อการตัดสินใจที่ถูกต้อง
  6. ความสามารถในการเรียนรู้และพัฒนาตนเองของหุ่นยนต์ (Machine learning) ทั้งนี้หุ่นยนต์จะเรียนรู้จากประสบการณ์ครั้งก่อนและพัฒนาให้ดีขึ้น สิ่งใดที่เคยเรียนรู้และผิดพลาด การตัดสินใจครั้งนั้นจะไม่เกิดขึ้นอีก ปัจจุบันได้มีการพัฒนาโดยให้ศึกษาอัลกอริทึมที่แตกต่างกัน ยกตัวอย่างเช่น ระบบการเดินของหุ่นยนต์  โดยให้หุ่นยนต์ศึกษาอัลกอริทึมซึ่งเลียนแบบการเดินของสัตว์ชนิดต่าง ๆ มากกว่า 13,000 วิธีการเพื่อหาวิธีการเดินที่ดีที่สุด ปัจจุบันได้มีการพัฒนาระบบที่เรียกว่า Brain Operating System (BrainOS) และการพัฒนาระบบการเรียนรู้จากสภาพแวดล้อมแบบปิด ยกตัวอย่างเช่น ให้หุ่นยนต์ทดลองการเรียนรู้ในห้องครัวเพื่อศึกษาถึงอุปกรณ์เครื่องครัวต่าง ๆ รวมถึงการเรียนรู้ในสภาพแวดล้อมแบบเปิด เช่น การเรียนรู้ผ่านเครือข่ายอินเตอร์เน็ต เช่น การเรียนรู้ผ่าน YouTube เป็นต้น การเรียนรู้รูปแบบนี้อยู่ในโปรแกรมที่ชื่อว่า Lifelong Robotic Object Discovery (LROD) ทั้งนี้เพื่อหาแนวทางที่ปลอดภัยที่สุดก่อนนำหุ่นยนต์มาใช้ในสภาพแวดล้อมที่แท้จริงสำหรับองค์ประกอบข้อสุดท้ายของนิยามคำว่าหุ่นยนต์นี้ เป็นลักษณะพิเศษที่มีการหลอมรวมเอาเทคโนโลยีปัญญาประดิษฐ์มาร่วมกับเทคโนโลยีอัตโนมัติ  ปัจจุบันนี้มีการพัฒนาระบบร่วมกันที่เรียกว่า Robot Operation System (ROS) ซึ่งก่อให้เกิดหุ่นยนต์อัจฉริยะที่สามารถเรียนรู้ และตัดสินใจเองได้ ความสามารถในการตัดสินใจในที่นี้หมายถึง การตัดสินใจเพื่อแก้ปัญหาที่เกิดขึ้น

อย่างไรก็ตามในปัจจุบันยังไม่มีเทคโนโลยหุ่นยนต์ที่พัฒนาไปสู่ความสามารถในการคิดก่อเจตนาจนก่อเจตจำนงเองได้ (Volitionality) ดังที่สังคมเป็นห่วงว่าหุ่นยนต์นั้นจะมาแทนที่มนุษย์เหมือนในภาพยนตร์ ปัจจุบันจึงได้มีการกำหนดกฏเกณฑ์เพื่อควบคุมการผลิตและใช้เทคโนโลยีดังกล่าวในระดับที่เหมาะสมเท่านั้น

4.1.2 แนวทางในการออกกฏหมายและกฎเกณฑ์ต่าง ๆ ในการบังคับใช้เทคโนโลยี

ภายหลังจากได้ทำการศึกษาเปรียบเทียบ ผู้เขียนพบว่าแนวทางในปัจจุบันเราสามารถแยกได้เป็นสองลักษณะดังต่อไปนี้

  1. การบังคับใช้กฎหมายตั้งแต่ต้นทางของการออกแบบเทคโนโลยี (Law by Design) กรณีดังกล่าวนี้หมายถึง การควบคุมเทคโนโลยีตั้งแต่ต้นทาง การควบคุมดังกล่าวปรากฏอยู่ในเอกสารชิ้นสำคัญของสหภาพยุโรปที่ชื่อว่า Ethics Guidelines for Trustworthy Artificial Intelligence โดยรายละเอียดของกฎเกณฑ์เบื้องต้นแบ่งออกเป็น 7 หัวข้อ ดังต่อไปนี้
      • การกำหนดภาระหน้าที่ให้กับบุคลากรที่เกี่ยวข้องกับเทคโนโลยี
      • ความปลอดภัยและความแน่นอนของเทคโนโลยีที่นำเอามาใช้
      • ความเป็นส่วนตัวและการคุ้มครองข้อมูล
      • ความโปร่งใสและตรวจสอบได้ของการทำงาน
      • การไม่เลือกปฏิบัติ การดำเนินการอย่างยุติธรรมและความเสมอภาคของบุคคลหลักหลายประเภทในการเข้าถึงเทคโนโลยี
      • สิ่งแวดล้อมและความปลอดภัยของสังคม
      • ความรับผิดชอบของผู้ออกแบบ ผู้ใช้และผู้ประกอบการที่เกี่ยวข้องกับเทคโนโลยี

    สำหรับการควบคุมตั้งแต่ต้นทางของการออกแบบเทคโนโลยี สหภาพยุโรปได้มีการศึกษาจากกฎเกณฑ์ข้อบังคับและแนวทางปฎิบัติของสหภาพยุโรปทั้งหมดที่มีมาก่อนเพื่อที่จะมากำหนดไว้ในแนวปฏิบัติฉบับนี้ โดยมีการกำหนดว่าผู้พัฒนาหรือผู้ออกแบบเทคโนโลยีจะต้องดำเนินการตามมาตรฐานขั้นต่ำที่ถูกกำหนดเอาไว้ในแนวปฏิบัติฉบับนี้เพื่อความปลอดภัย และเป็นไปตามวัตถุประสงค์ทั้ง 7 ข้อดังที่กล่าวมา ทั้งนี้ได้มีการศึกษากฎเกณฑ์ต่าง ๆ จากกฎระเบียบดังต่อไปนี้

      • The general data protection regulation
      • The product liability directive
      • The regulation on the free flow of non-personal data
      • Anti-discrimination directive
      • กฎหมายคุ้มครองผู้บริโภค และ Safety and health at work directive
      • The UN Human right treaties และ The European convention on human rights
      • The medical device regulation in the healthcare

    ดังนั้นหลักการพื้นฐานเหล่านี้จึงถูกกำหนดตั้งแต่ต้นทางแล้ว กล่าวคือ การออกแบบอัลกอริทึมในการใช้งานแต่ละเรื่องก่อนที่จะมีการพัฒนาเทคโนโลยี จะต้องผ่านมาตรฐานเหล่านี้ด้วย และที่สำคัญยังต้องออกแบบให้สอดคล้องกับหลักสิทธิขั้นพื้นฐาน หลักนิติรัฐ หลักการไม่เลือกปฏิบัติรวมถึงสิทธิของพลเมืองในรูปแบบต่าง ๆ ที่ถูกกำหนดไว้นอกจากที่กล่าวมายังรวมถึงการจัดทำประมวลจริยธรรมสำหรับผู้คิดค้นและออกแบบเทคโนโลยี รวมถึงการจัดทำโปรแกรมต่าง ๆ ต้องสอดคล้องกับเรื่องดังกล่าวทั้งสิ้น

    นอกจากหลักการที่กล่าวไว้ ยังมีหลักการอื่น ๆ ที่สำคัญดังต่อไปนี้

    หลักความโปร่งใสตรวจสอบได้ (The Principle of Explicability) หลักการนี้หมายถึง การนำเทคโนโลยีมาใช้นั้นจะต้องสามารถตรวจสอบความถูกต้องของเทคโนโลยีได้ รวมถึงเมื่อมีความบกพร่องเสียหายเกิดขึ้นจะต้องสามารถที่จะตรวจสอบได้ว่ามาจากเหตุผลใด ทั้งนี้ได้มีการกำหนดเอาไว้ในบางเรื่องเช่น ระบบกล่องดำ หรือ กล่องรักษาความปลอดภัย (Black Box) ในกรณีที่มีความเสียหายเกิดขึ้น สามารถตรวจสอบว่าความบกพร่องเกิดจากเหตุใด ซึ่งมีลักษณะใกล้เคียงกับกล่องดำของเครื่องบินนั้นเอง

    หลักการแก้ไขปัญหาเมื่อมีความขัดแย้งระหว่างหลักการที่สำคัญ กรณีที่หลักการพื้นฐานมีความขัดแย้งกันเอง การตัดสินใจในการแก้ปัญหานั้นจะเป็นอย่างไร ยกตัวอย่างเช่น ถ้าเกิดว่าหลักการในเรื่องการป้องกันภัย (Principle of Prevention of Harm) เกิดขัดแย้งกับหลักการที่เรียกว่า อิสระเสรีภาพของมนุษย์ (Principle of Human Autonomy) สุดท้ายแล้วเทคโนโลยีปัญญาประดิษฐ์จะตัดสินใจอย่างไร กรณีที่จะเป็นตัวอย่างให้เห็นปัญหาก็คือ สมมุติว่าหน่วยงานความมั่นคงได้นำเทคโนโลยีปัญญาประดิษฐ์มาใช้ในการทำนายความเสี่ยงที่จะเกิดอาชญากรรมและใช้ในการลดอาชญากรรมที่กำลังจะเกิดขึ้นในอนาคต แต่ขณะเดียวกันการดำเนินการจะต้องเข้าไปตรวจสอบกิจกรรมหรือพฤติกรรมของปัจเจกชน ซึ่งแน่นอนว่าบางครั้งก็ก้าวล่วงเข้าไปในแดนเสรีภาพและสิทธิส่วนบุคคล แนวทางดังกล่าวต้องมีความชัดเจนแน่นอน

    หลักการแทรกแซงโดยมนุษย์ (Human Oversight)  เนื่องจากการนำเทคโนโลยีปัญญาประดิษฐ์และหุ่นยนต์มาใช้นั้น ในบางเรื่องมีความจำเป็นที่จะต้องมีการแทรกแซงโดยการตัดสินใจของมนุษย์ ซึ่งอาจจะมีลักษณะเป็นการตัดสินใจแทนโดยมนุษย์ หรือการตัดสินใจร่วมกันในการดำเนินการ  หลักการดังกล่าวนี้เราเรียกว่า HITL-Human in the loop, HOTL-Human on the loop, HIC-Human in common

    หลักความปลอดภัยและความแน่นอนของเทคโนโลยี  (Technical Robustness and Safety) สำหรับความปลอดภัยของตัวเทคโนโลยีนั้น ถูกกำหนดขึ้นในกรณีที่เกิดการจู่โจมอันก่อให้เกิดความเสียหายต่อความมั่นคงไซเบอร์และทำให้เกิดความเสียหายต่อระบบ กรณีดังกล่าวนี้จะต้องมีการตั้งแผนรองรับการถูกโจมตีทางไซเบอร์ (Resillence to Attack and Security) รวมถึงการวางแผนสำรองเพื่อแก้ปัญหาเฉพาะหน้าในกรณีที่เกิดความเสียหายขึ้นมาและมีผลต่อความปลอดภัย (Fallback Plan and General Safety)

  2. การกำหนดให้ตัวของเทคโนโลยีเป็นนิติบุคคลตามกฎหมายประเภทใหม่ (Electronic Personhood) กรณีดังกล่าวนี้หมายถึงการควบคุมเทคโนโลยีเมื่อมีการนำออกใช้สู่สังคมแล้ว ดังนั้นในกรณีที่เกิดความเสียหายขึ้นและไม่สามารถพิสูจน์เพื่อลงโทษหรือให้ชดใช้ความเสียหายได้ หรือความเสียหายนั้นไม่สามารถที่จะพิสูจน์ได้ว่าเกิดขึ้นจากผู้ออกแบบเทคโนโลยี ผู้ประกอบการที่เกี่ยวข้อง ผู้ควบคุม หรือใช้งานที่เกี่ยวข้อง ความรับผิดในความเสียหายดังกล่าวควรจะเป็นของตัวเทคโนโลยีเองก่อนอื่นต้องเข้าใจก่อนว่าเทคโนโลยีปัญญาประดิษฐ์ที่ถูกนำเอามาใช้งานนั้น ยิ่งมีการใช้งานยาวนานเท่าไหร่ ยิ่งมีข้อมูลที่ถูกประมวลผลจำนวนมากเท่าไหร่ยิ่งเป็นการเพิ่มประสิทธิภาพให้กับเทคโนโลยีดังกล่าว ดังนั้นโดยสมมุติฐานแล้วเทคโนโลยีปัญญาประดิษฐ์นั้นจะมีอายุการใช้งานที่ยาวนานมาก เมื่อถึงเวลาที่มีความเสียหายเกิดขึ้นในอนาคต ความเสียหายนั้นอาจจะเกิดขึ้นในช่วงเวลาที่มีการเปลี่ยนผ่านความเป็นเจ้าของผู้ทรงสิทธิ์ตามกฏหมายของเทคโนโลยีดังกล่าวไปแล้ว เช่น นิติบุคคลที่เป็นเจ้าของเทคโนโลยีได้มีการควบรวมกิจการ หรือมีการเปลี่ยนแปลงนิติบุคคลดังกล่าวในรูปแบบต่าง ๆ ไปหลายทอดแล้ว ดังนั้นจึงมีความคิดว่าตัวของเทคโนโลยีปัญญาประดิษฐ์น่าจะมีสถานภาพทางกฎหมายเป็นนิติบุคคลประเภทใหม่ ในลักษณะเดียวกับการนำเอาหลักกฏหมายว่าด้วยการคุ้มครองนิติบุคคลในปัจจุบันมาปรับใช้  แต่การปรับใช้นั้นอาจจะมีการเพิ่มหลักการบางเรื่องเข้าไป ยกตัวอย่างเช่น มีการกำหนดระบบกองทุนสำรองจากรายรับหรือผลกำไรที่ได้รับส่วนหนึ่งและปันมาเป็นเงินเก็บไว้ในกองทุนเพื่อเยียวยาความเสียหายที่อาจจะเกิดขึ้นในอนาคตอย่างไรก็ตาม แนวทางดังกล่าวยังเป็นเพียงแค่ข้อเสนอแนะและยังรอการปฏิรูปให้เป็นรูปธรรมมากยิ่งขึ้น

รองศาสตราจารย์ ดร. ภูมินทร์ บุตรอินทร์
ที่ปรึกษาด้านกฏหมาย มูลนิธิศูนย์สารสนเทศเครือข่ายไทย

*อ่านย้อนหลัง ตอนที่ 1ตอนที่ 2ตอนที่ 3ตอนที่ 4

[1] *Klimczuk, Andrzej, Economic Foundations for Creative Ageing Policy, Volume I: Context and Considerations, Palgrave Macmillan, New York 2015, pp. 75-107; Klimczuk, Andrzej, “Supporting the Development of Gerontechnology as Part of Silver Economy Building”, Ad Alta: Journal of Interdisciplinary Research 2/2012, pp. 52-56.  ศึกษารายละเอียดเพิ่มเติมได้ที่ https://ec.europa.eu/digital-single-market/en/news/silver-economy-study-how-stimulate-economy-hundreds-millions-euros-year