Digital Ventures

Back to blog

รับผิดชอบและโปร่งใส คุณสมบัติที่ AI ต้องทำได้ในอนาคต

DIGITAL VENTURES กุมภาพันธ์ 07, 2019 10:52 AM

1,384

Digital Ventures ได้พูดถึงการใช้งานเทคโนโลยีปัญญาประดิษฐ์หรือ Artificial Intelligence กันมามากแล้ว ซึ่งช่วยให้เราได้เห็นถึงการพัฒนาเพื่อใช้งานเทคโนโลยีนี้ที่เข้ามาใกล้ตัวเรามากขึ้นทุกที ทำให้ประเด็นหนึ่งที่ทุกคนเริ่มเห็นและตระหนักมากขึ้นคือ “ความรับผิดชอบ” ที่เทคโนโลยี AI ควรจะมีเพื่อป้องกันความเสียหายที่อาจเกิดขึ้นกับเราทุกคน “ความรับผิดชอบ” ของ AI เป็นอย่างไร ปัญหาจาก AI ที่ขาดความรับผิดชอบเป็นอย่างไร และทำไมเราถึงต้องสอนให้ AI รู้จักรับผิดชอบ Digital Ventures จะพาไปทำความรู้จักในประเด็นนี้กัน

ทำไมถึงต้องให้ความสำคัญกับความรับผิดชอบ

ในชีวิตจริง AI ถือได้ว่าเป็นเทคโนโลยีที่มีศักยภาพมาก ทั้งความสามารถในการดำเนินการต่างๆ ที่เป็นอัตโนมัติ มีการวิเคราะห์และสังเคราะห์ข้อมูลต่างๆ ได้อย่างรวดเร็ว รวมไปถึงการผลักดันให้ใช้งานในลักษณะต่างๆ อันเกี่ยวข้องกับชีวิตและทรัพย์สินโดยตรง เช่น AI ในยานยนต์ขับเคลื่อนอัตโนมัติ เป็นต้น  ด้วยเหตุนี้จึงเกิดแนวคิดการควบคุม AI ในหลายแนวทาง ซึ่งแนวทางหนึ่งที่เกิดขึ้นแล้วคือการใช้กฎหมายควบคุมการเข้าถึงข้อมูลอย่าง GDPR ของสหภาพยุโรป อีกแนวทางหนึ่งที่กำลังเป็นประเด็นร้อนขณะนี้ คือการสอนให้ Algorithm รู้จักการใช้และสังเคราะห์ข้อมูลอย่างมีความรับผิดชอบ ด้วยมาตรฐานทางศีลธรรมและจริยธรรมที่เราใช้ในการทำสิ่งต่างๆ ในปัจจุบัน

ปัญหาจากการใช้ AI ที่ขาดความรับผิดชอบ

การขาดความรับผิดชอบของ AI อาจเกิดได้ทั้งจากฝีมือมนุษย์ที่ตั้งใจให้เกิดขึ้น หรือขาดการควบคุมให้มี Model ด้านจริยธรรมที่คอยควบคุมการตัดสินใจของ AI โดยปัญหาการใช้งานจริงที่เกิดขึ้นในปัจจุบัน มีตัวอย่างที่เห็นได้ชัด ดังนี้

  • การแพร่หลายของข่าวปลอม Fake News ในยุคที่ข้อมูลไหลเวียนเร็วตามการพัฒนาของเทคโนโลยี Network ผู้คนจะได้รับข้อมูลใหม่ๆ มากขึ้นกว่าแต่ก่อน ในข้อมูลเหล่านั้นอาจมีข้อมูลหรือข่าวปลอมอยู่ด้วย และด้วย AI ที่สามารถคัดกรองและแนะนำข่าวแก่ผู้คนจำนวนมากในระดับประเทศและระดับโลก ก็อาจทำให้ข่าวปลอมแพร่กระจายเป็นวงกว้าง นำไปสู่การเข้าใจผิดที่อาจส่งผลเสียหายอย่างเป็นรูปธรรมได้ นอกจากนี้ AI ในปัจจุบันยังเป็นกลไกสร้างการบิดเบือนสื่อต่างๆ ที่รู้จักกันในชื่อว่า Deep Fake โดยการบิดเบือนจาก Deep Fake นั้นมีทั้งในรูปแบบภาพ เสียง และวิดีโอ ความน่ากลัวคือสื่อที่เกิดขึ้นจาก Deep Fake จะดูแนบเนียนจนเหมือนเกิดขึ้นจริง โดยวิธีหนึ่งที่จะช่วยยับยั้งการแพร่กระจายของ Deep Fake ได้ ก็ต้องอาศัย AI ตรวจจับการบิดเบือนพร้อมกับคัดกรองเพื่อนำข่าวเหล่านี้ออกจากระบบนั่นเอง
  • การเก็บข้อมูลที่เอนเอียงจากความจริง Data Bias เรามักใช้ AI จัดการกับข้อมูลจำนวนมหาศาลเพื่อให้เห็นแนวโน้มจนนำไปสู่การตัดสินใจที่ดีขึ้น แต่จะเกิดอะไรขึ้น หาก AI ได้รับข้อมูลที่เอนเอียงจากความเป็นจริง จนทำให้การสังเคราะห์แนวโน้มผิดเพี้ยนและเกิดข้อผิดพลาดทางศีลธรรมมากมาย ตัวอย่างที่เกิดขึ้นจริงและเห็นได้ชัดคือการวิเคราะห์ข้อมูลลักษณะบุคคล Deloitte ได้เผยรายงานการสำรวจความผิดพลาดของ AI ในการระบุภาพของมนุษย์ว่ามีความผิดเพี้ยนสูงมากจากปัจจัยด้านความหลากหลายทางเชื้อชาติและเพศ โดย AI ระบุผู้หญิงผิวสีผิดถึง 34 เปอร์เซ็นต์ แต่กลับระบุผู้ชายผิวขาวผิดเพียง 0.8 เปอร์เซ็นต์ การวิเคราะห์ที่ผิดพลาดเช่นนี้ นอกจากเป็นประเด็นละเอียดอ่อนแล้ว ยังทำให้โอกาสการนำ AI ไปใช้ในเรื่องที่เกี่ยวข้องกับชีวิตอย่างด้านการแพทย์เกิดขึ้นได้ช้าลงด้วย เพราะหาก AI ไม่สามารถจำแนกมนุษย์ได้แม่นยำพอ การประยุกต์ใช้ในด้านต่างๆ โดยเฉพาะด้านการรักษาก็คงไม่อาจทำได้อย่างมีประสิทธิภาพ
  • โอกาสผิดพลาดของยานยนต์ขับเคลื่อนอัตโนมัติ อีกปัญหาหนึ่งที่จะเห็นผลกระทบชัดเจนมาก หาก AI ขาดความรับผิดชอบ นั่นคือ การควบคุมยานพาหนะ เช่นเดียวกับกรณี Data Bias ถ้าหาก AI ไม่สามารถตรวจจับมนุษย์ สิ่งมีชีวิต หรือทรัพย์สินต่างๆ ได้ ก็อาจเกิดอันตรายกับทุกชีวิตที่เกี่ยวข้องในส่วนนี้ได้ ไม่เพียงเท่านี้ ยังมีประเด็นทางศีลธรรมซึ่งยังเป็นที่ถกเถียงกันอยู่ เช่น หากมีคนกระโดดตัดหน้ายานยนต์ขับเคลื่อนอัตโนมัติ ยานยนต์จะหักหลบเพื่อรักษาชีวิตคนที่ลงมาในถนนแต่ทำให้ผู้อยู่ในรถเสียชีวิต หรือจะพุ่งชนเพื่อรักษาชีวิตผู้ที่อยู่ในรถ ส่วนนี้ก็ถือเป็นปัญหาของการใช้ AI อย่างมีความรับผิดชอบเช่นกัน

 

 

คุณสมบัติที่ AI ต้องทำให้ได้ก่อนเราทุกคนจะได้ใช้กัน

จากเหตุผลและปัญหาที่อาจเกิดขึ้นข้างต้น จึงจำเป็นต้องมีหลักการหรือคุณสมบัติบางอย่างที่ควรยึดถือ เพื่อให้ AI เกิดประโยชน์สูงสุด และไม่ก่อความเสียหาย หรือก่อความเสียหายน้อยที่สุดและอยู่ในระดับที่ควบคุมได้ ซึ่งองค์กรใหญ่ด้านการพัฒนาจริยธรรมดิจิทัล เช่น สถาบันวิชาชีพวิศวกรไฟฟ้าและอิเล็กทรอนิกนานาชาติหรือ IEEE, UNI Global Union รวมถึงคณะกรรมการเศรษฐกิจและสังคม สหภาพยุโรป ล้วนนำเสนอแนวทางซึ่งสรุปออกมาหลักๆ 2 ข้อ ดังนี้

  • รับผิดชอบ (Accountability) การทำงานของ AI ทั้งการแนะนำ สังเคราะห์ ไปจนถึงขั้นแสดงข้อมูลต้องเป็นประโยชน์ ไม่นำไปสู่โทษหรือความเสียหายที่เป็นวงกว้าง
  • ขั้นตอนโปร่งใส (Transparency) ในกรณีที่ AI ไม่สามารถบรรลุหน้าที่อย่างมีความรับผิดชอบได้ มนุษย์จึงควรสามารถเข้าไปแก้ไขด้วยตัวเองได้ AI จึงจำเป็นต้องมีความโปร่งใสในกระบวนการทำงาน ต้องบอกได้ว่าการตัดสินใจส่วนนี้มาจากอะไร ใช้ข้อมูลรูปแบบใด เพื่อแก้ไขได้ถูกจุด

 

จะเห็นได้ว่า “ความรับผิดชอบ” จำเป็นอย่างมากในยุคที่อนาคตเราต้องการใช้ประโยชน์จากเทคโนโลยี AI ซึ่งครั้งนี้เราได้พูดถึงแนวคิดกันไปแล้ว ต้องดูกันต่อไปว่าแนวทางปฏิบัติของเราจะต้องออกมาในทิศทางใด ทั้งนี้ หากมีความเคลื่อนไหวที่น่าสนใจในประเด็นนี้ เราจะขอหยิบมานำเสนอในโอกาสต่อไป

ขอขอบคุณที่มาของข้อมูลจาก deloitte.com, designforvalues.tudelft.nl และ informationaccountability.org