Digital Ventures

Back to blog

AI กับความท้าทายด้าน “จริยธรรม” ในอุตสาหกรรมการเงิน

DIGITAL VENTURES July 12, 2019 12:48 AM

556

เมื่อพูดถึงเทคโนโลยีที่จะมีผลกับเราทุกคนในอนาคตอันใกล้ ย่อมต้องมีเทคโนโลยี “ปัญญาประดิษฐ์” รวมอยู่ด้วยแน่นอน ยิ่งในภาคอุตสาหกรรมการเงินที่เพิ่มการใช้ AI อย่างแพร่หลาย ความเคลื่อนไหวนี้จึงก่อผลกระทบกับทั้งชีวิตประจำวันและโครงสร้างของสังคม โดยเฉพาะประเด็นน่ากังวลเรื่อง “จริยธรรมและการกำกับดูแล” ที่กำลังเป็นประเด็นพิจารณาทั่วโลกทั้งจากผู้มีส่วนกำกับนโยบายและภาคธุรกิจ ทั้งความเสี่ยงที่อาจเกิดขึ้นจากปัญญาประดิษฐ์ รวมถึงบทบาทของทุกภาคส่วนที่เกี่ยวข้อง Digital Ventures จึงขอพาทุกท่านไปสำรวจในประเด็นดังกล่าวที่อาจนำไปสู่แนวทางการพัฒนา AI ในอนาคตอันใกล้

 

 

เหตุปัจจัยที่ทำให้ AI น่ากังวลในทางจริยธรรม

ธุรกิจยุค Data-Driven ทำให้ AI เข้ามาเปิดศักยภาพใหม่ๆ ให้กับกิจกรรมทางเศรษฐกิจไม่น้อย แต่ก็ยังมีประเด็นที่น่ากังวลในการใช้งานปัญญาประดิษฐ์โดยขาดการควบคุมจากมาตรการต่างๆ รวมถึงข้อกำหนดทางศีลธรรม โดยอาจทำให้เกิดปัญหาดังนี้

  • ข้อมูลในอนาคตจะซับซ้อนยิ่งขึ้น เทคโนโลยีอย่าง Internet of Things, Smart Device รวมถึงโครงสร้างพื้นฐานด้านเครือข่ายอย่าง 5G กำลังพัฒนาไปอย่างไม่หยุดยั้ง ซึ่งมีส่วนทำให้เราสามารถเก็บข้อมูลรูปแบบใหม่ที่ซับซ้อนมากขึ้น จากเดิมที่ข้อมูลอาจถูกวิเคราะห์เป็นรายวัน ก็สามารถวิเคราะห์เป็นรายชั่วโมง การตรวจสอบการใช้งานข้อมูลดังกล่าวจึงยากยิ่งขึ้นหากไม่มีการกำหนดมาตรฐานการเก็บข้อมูลในอนาคต
  • อาจสูญเสียการควบคุม AI ตัวเทคโนโลยีปัญญาประดิษฐ์หากถูกพัฒนามากขึ้นจนสามารถปรับปรุงเปลี่ยนแปลงตัวมันเองได้อย่างไร้ขีดจำกัด แม้จะลดความจำเป็นที่ต้องดูแลโดยมนุษย์ แต่หากว่ามนุษย์ไม่สามารถเข้าไปดูกลไกลภายในหรือดัดแปลงแก้ไข ก็อาจทำให้ผลลัพธ์ที่ออกมาไม่เป็นไปตามเป้าหมายที่วางไว้ได้
  • ผูกขาดการแข่งขัน แม้ AI จะช่วยให้เกิดการแพร่ขยายของบริการทางการเงิน แต่หาก Platform บางอย่างทำการเก็บข้อมูลของบุคคลมากเกินไป ก็อาจทำให้เกิดการผูกขาดการใช้ข้อมูลดังกล่าว นำไปสู่การแข่งขันระหว่างผู้ให้บริการที่ไม่ยุติธรรมและมีผู้เสียเปรียบมากเกินไปได้
  • เกิดความไม่เท่าเทียมที่รุนแรงขึ้น หากผู้พัฒนาสร้าง AI โดยไม่คำนึงถึง Bias หรืออคติ แทนที่ AI จะทำหน้าที่ส่งมอบบริการแก่คนจำนวนมากอย่างยุติธรรมแล้ว AI อาจทำหน้าที่กีดกันคนที่ไม่เข้ากลุ่มเป็นวงกว้างอย่างรวดเร็ว เป็นผลให้ความไม่เท่าเทียมถูกขยายและถ่างกว้างจนน่ากลัวทีเดียว
  • Policy Maker ไม่เข้าใจความซับซ้อนของ AI หากผู้กำกับนโยบายในอุตสาหกรรมไม่รีบเข้ามาทำความเข้าใจเทคโนโลยีชนิดนี้อย่างทันท่วงที รวมถึงไม่มีบุคลากรที่เข้าใจในเชิงเทคนิค ก็อาจทำให้นโยบายที่ออกมาไม่ถูกคิดอย่างรอบด้าน ทำให้เกิดได้ทั้งมาตรการที่ควบคุมมากเกินไปจนเทคโนโลยีเดินหน้าไม่ได้ หรือมาตรการมีช่องโหว่ทำให้เกิดปัญหาจากเทคโนโลยีนี้ตามมา

บทบาทของแต่ละภาคส่วนต่อการกำกับดูแล (Governance) การทำงานของ AI

จากปัญหาดังกล่าวทำให้เห็นว่ามนุษย์จำเป็นต้องเข้ามาควบคุมดูแลการทำงานของ AI ทั้งนี้ แต่ละภาคส่วนมีบทบาทที่จะต้องเข้ามาเรียนรู้และทำหน้าที่เพื่อป้องกันปัญหาที่อาจเกิดขึ้นกับปัญญาประดิษฐ์ดังนี้

  • ภาครัฐ ถือเป็นภาคที่มีความสำคัญเพราะเป็นผู้กำหนดมาตรฐานของเรื่องต่าง ๆ ซึ่งในเรื่องของ AI ผู้มีส่วนในการกำหนดนโยบายควรทำความเข้าใจเรื่องของ AI เพื่อสร้างมาตรการที่ส่งเสริมให้เกิดการแข่งขันที่เป็นธรรม และควรควบคุมการพัฒนา AI ตั้งแต่กระบวนการสร้างจนถึงผลลัพธ์ ทั้งนี้ ภาครัฐควรร่วมมือกับทั้งภาคธุรกิจและประชาสังคมเพื่อออกนโยบายดังกล่าว
  • ภาคธุรกิจ ในฐานะที่เป็นผู้ผลิต AI จำเป็นต้องมีบทบาทรับผิดชอบตั้งแต่การควบคุมบุคลากรให้พัฒนา AI ตามมาตรฐานจริยธรรม คอยสอดส่องการทำงานของ AI ให้โปร่งใส ตรวจสอบได้ รวมถึงมีส่วนร่วมทดสอบการทำงานและมาตรฐานใหม่ๆ ใน Sandbox เพื่อให้เห็นผลกระทบก่อนที่จะปล่อยให้ AI ทำงานจริง
  • ภาคประชาสังคม ประชาชนทั่วไปเป็นผู้ที่ได้รับผลกระทบจากการทำงานของ AI โดยตรง ดังนั้น บทบาทของประชาชนที่มีร่วมกันคือสร้างความตระหนักรู้ถึงคุณสมบัติ ประโยชน์ และความเสี่ยงของปัญญาประดิษฐ์เพื่อส่งเสริมให้เกิดการพัฒนาไปข้างหน้า และทำให้ภาคธุรกิจตระหนักถึงการสร้าง AI ที่มีความรับผิดชอบต่อประชาชนในฐานะลูกค้า ทั้งนี้ ภาคประชาสังคมยังควรมีส่วนร่วมในการกำหนดนโยบายร่วมกับภาครัฐและภาคธุรกิจด้วย

 

 

อนาคตจริยธรรมของ AI จากมาตรฐานของ EU

สหภาพยุโรปเป็นกลุ่มประเทศที่มีมาตรการด้านเทคโนโลยีในระดับที่เข้มข้น ซึ่งก่อนหน้านี้ได้ออกมาตรการคุ้มครองข้อมูลส่วนบุคคลหรือ GDPR ซึ่งทำให้เกิดการเปลี่ยนแปลงต่อธุรกิจเทคโนโลยีรวมถึงผู้กำหนดนโยบายทั่วโลก แต่ทั้งนี้ การกำหนดนโยบายแค่ในด้านข้อมูลอาจไม่เพียงพอ เพราะปัจจุบันเทคโนโลยี AI พัฒนาไปมากและกำลังมีส่วนเกี่ยวข้องกับเรามากขึ้น สหภาพยุโรปจึงได้รวบรวมผู้เชี่ยวชาญด้าน AI มาร่วมกันกำหนด “แนวทางการพัฒนา AI” ซึ่งสามารถสรุปเนื้อหาได้ 7 ข้อดังนี้

  • มนุษย์ต้องควบคุม AI ได้ การทำงานของ AI ไม่ควรควบคุมมนุษย์ และมนุษย์ต้องสามารถเข้าถึงและปรับแต่งการทำงานของ AI ได้เสมอเมื่อจำเป็น
  • แม่นยำและมีประสิทธิภาพทางเทคนิค AI ที่สร้างขึ้นต้องไม่ถูกเจาะ บิดเบือน หรือทำลายได้ง่ายๆ รวมถึงทำงานได้แม่นยำตามหน้าที่ที่ออกแบบไว้
  • การเก็บรักษาข้อมูลส่วนตัวที่ได้มาตรฐาน ข้อมูลส่วนบุคคลซึ่งเป็นสิ่งที่ขับเคลื่อนการตัดสินใจของ AI ต้องถูกเก็บรักษาอย่างมีมาตรฐาน ต้องไม่สามารถเข้าถึงหรือขโมยออกมาได้โดยง่าย
  • ความโปร่งใส การทำงานของ Algorithm และผลลัพธ์จาก AI ต้องอยู่บนพื้นฐานความเข้าใจของมนุษย์ ต้องสามารถอธิบายการตัดสินใจด้วยเหตุและผลได้
  • ความเป็นประชาธิปไตย สาธารณะและเท่าเทียม เข้าถึงได้ ไม่แบ่งแยก และแฟร์กับทุกคน บริการของ AI ต้องสามารถเข้าถึงได้กับมนุษย์ทุกคน ไม่มีการแบ่งแยกเพศสภาพ สีผิว เผ่าพันธุ์ อีกทั้งจะต้องไม่เกิดอคติจากคุณสมบัติเหล่านั้น
  • ส่งเสริมให้เกิดสภาพแวดล้อมและความเป็นอยู่ที่ดี AI ต้องช่วยส่งเสริมความยั่งยืนในประเด็นต่าง ๆ โดยเฉพาะสิ่งแวดล้อม ไปจนถึง “ความเป็นอยู่ที่ดีในสังคม”
  • มีความรับผิดชอบ ระบบการทำงานของ AI จะต้องได้รับการประเมินอยู่เสมอ หากเกิดผลกระทบเชิงลบจากการทำงานของ AI ต้องมีการแจ้งและรายงานเสมอ 

 

จะเห็นได้ว่าเรื่องของจริยธรรมและการกำกับดูแลเป็นกลไกสำคัญที่ช่วยให้เทคโนโลยีปัญญาประดิษฐ์เกิดประโยชน์กับทุกคนได้อย่างแท้จริง ซึ่งทุกวันนี้ ประเด็นเกี่ยวกับจริยธรรมและแนวทางการกำกับดูแลเทคโนโลยีทั้งหลายรวมถึง Deep Technology อื่น ๆ ยังเป็นเรื่องถกเถียงอย่างต่อเนื่อง ทั้งนี้ Digital Ventures ยังมีเนื้อหาเหล่านี้ให้ได้ติดตามกันอีกในโอกาสต่อไป

ขอขอบคุณข้อมูลจาก globalriskinstitute.org, ec.europa.eu และ financeinnovationlab.org