Digital Ventures

Back to blog

ส่ง AI ไปเรียนธรรมะ

DIGITAL VENTURES X CHAMP TEEPAGORN December 27, 2017 10:08 AM

4,726

“สักวันเธอจะต้องตาย”

ไม่ใช่ข้อความจากหนังสือธรรมะที่ไหน แต่เป็นโนติฟิเคชั่นจากแอพพลิเคชั่นชื่อ We Croak ข้อความลักษณะนี้จะปรากฏอยู่บนหน้าจอของผม วันละห้าครั้ง ในเวลาที่ไม่ซ้ำกัน เพื่อเตือนให้ผมรำลึกเสมอ - รำลึกว่า ผมจะต้องตายสักวันหนึ่ง เมื่อเปิดเข้าไปในแอพ เราจะได้อ่านโควตของนักคิดผู้มีชื่อเสียง ที่ชวนให้คิดถึงความตายอย่างมีความหมาย (ไม่ว่า ‘ความหมาย’ จะคืออะไรก็ตาม!)

นี่เป็นจุดตัดของเทคโนโลยีกับธรรมะในแบบที่เราอาจคาดไม่ถึงมาก่อน - เมื่อเทคโนโลยีสัมพันธ์กับตัวเรามากขึ้นเรื่อยๆ มันก็ย่อมมีความเป็น ‘มนุษย์’ มากขึ้นเรื่อยๆ ด้วยเช่นกัน - จะด้วยวิธีที่เราใช้มัน หรือด้วยวิธีที่เราให้ความหมายกับมันก็ตามแต่

นั่นทำให้เราย่อมสงสัยด้วยว่า เมื่อเทคโนโลยีมีความเป็นมนุษย์มากขึ้น แล้วมันควรจะประพฤติให้ ‘สมกับเป็นมนุษย์’ ไหม มันควรมีมาตรฐานทางจริยธรรมหรือเปล่า - ที่สำคัญไปกว่านั้น ‘จริยธรรม’ ของใคร

คุณก็รู้ ในโลกนี้มีความเชื่อที่แตกต่างกันเป็นร้อยเป็นพัน (อันที่จริง - เป็นพันล้าน!) แบบกระทั่งว่าคุณนับถือศาสนาเดียวกับคนข้างบ้าน คุณอาจจะมีความเชื่อทางการเมืองแตกต่างกับเขาก็ได้ หรือกระทั่งหากคุณเชื่อแทบทุกอย่างเหมือนกับใครสักคน แต่มันก็ต้องมีจุดเล็ก-จุดน้อยแหละที่คุณจะไม่เหมือนกัน (เช่นว่า คุณยอมรับได้ไหมกับการซื้อผลิตภัณฑ์จากร้านที่รู้ทั้งรู้ว่าทำลายสิ่งแวดล้อม - บางคนก็บอกว่า มันเกินปัญญาของเราที่จะไม่ใช้ เพราะผลิตภัณฑ์นั้นเป็นเจ้าตลาดไปแล้ว บางคนบอกว่า แต่มันก็ควรค่าแก่การต่อต้านนะ! เรื่องแบบนี้แหละที่ถึงจะเชื่อเหมือนกัน แต่ก็เชื่อเหมือนกันได้ไม่เท่ากัน!)

คำถามคือ แล้วปัญญาประดิษฐ์ควรมีหลักการอย่างไรในการคิด - อันที่จริง มันควรคิดเหมือนเรา เหมือนเจ้าของ หรือเหมือนกับ ‘วัฒนธรรม’ ที่มันอยู่หรือเปล่า ตัวอย่างเช่น ปัญญาประดิษฐ์ที่อยู่ในสังคมตะวันตกอย่างเช่นอเมริกา ควรคิดเหมือนปัญญาประดิษฐ์สังคมตะวันออกอย่างญี่ปุ่นไหม (เช่น มันควร ‘ช่วยเหลือ’ ผู้ใช้งานในระดับเดียวกันหรือเปล่า)

เหล่านี้คือคำถามที่นักวิเคราะห์และนักพัฒนาปัญญาประดิษฐ์ทั่วโลกพยายามหาคำตอบ ตั้งแต่โครงการ OpenAI, ศูนย์วิจัยจริยธรรมปัญญาประดิษฐ์ของม.คาร์เนกี้ เมลลอน หรือหน่วยวิจัยจริยธรรมและสังคมที่ Deepmind ของกูเกิ้ล และล่าสุดกลุ่มวิจัยชื่อ IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems ก็พยายามหาคำตอบของคำถามนี้เช่นกัน แต่ที่กว้างไปกว่าศูนย์วิจัยอื่นๆ คือ พวกเขาพยายามรวบรวมวิธีคิดที่หลากหลายจากต่างวัฒนธรรมเข้ามาเป็นส่วนหนึ่งของกระบวนการด้วย พวกเขาเชิญผู้เชี่ยวชาญในประเทศอย่างบราซิล จีน อิหร่าน อิสราเอล ญี่ปุ่น เกาหลี เม็กซิโก รัสเซีย และประเทศไทย มาเป็นส่วนหนึ่งของคณะให้ความเห็น เพื่อร่วมกันหาแนวทางที่ปัญญาประดิษฐ์ควรปฏิบัติในอนาคต

นอกจากแนวทางจริยธรรมแบบตะวันตกแล้ว พวกเขาก็ยังเชื้อเชิญให้คณะวิจัยร่วมแสดงความเห็นผ่านมุมมองของระบบจริยธรรมอื่นๆ อย่างเช่นศาสนาพุทธหรือความเชื่อแบบขงจื๊อด้วย

ในรายงานฉบับปรับปรุงครั้งที่ 2 (รายงานฉบับเต็มจะออกปี 2019) พูดถึงปัญหาของการที่สังคมนักวิจัยปัญญาประดิษฐ์เดิมกระจุกตัวอยู่ในโลกตะวันตก (แม้ปัจจุบันจะเปลี่ยนไปมากแล้ว เพราะจีนกับญี่ปุ่นก็ก้าวขึ้นมาเป็นผู้นำมากขึ้นเรื่อยๆ) ว่าเมื่อผู้พัฒนาปัญญาประดิษฐ์อยู่ในโลกตะวันตก ในบางครั้งพวกเขาจึงอาจพัฒนาระบบที่ส่งผลกีดกันความเชื่อแบบอื่นๆ (โดยตั้งใจหรือไม่ตั้งใจ) ขึ้น รายงานแบ่งแนวคิดแบบ ‘ตะวันตก’ กับ ‘ตะวันออก’ ไว้อย่างกว้างๆ ว่าตะวันตกเป็นสังคมปัจเจก และไม่ ‘รวมหมู่’ เท่าสังคมตะวันออก แต่ตัวรายงานเองก็ยังบอกว่านักวิจัยปัญญาประดิษฐ์ก็ต้องระวังไม่รวบความเชื่อแบบสังคมตะวันตกเป็นหมวดหมู่เดียวกันทั้งหมดเช่นเดียวกัน

พวกเขาแนะนำว่า หากนักวิจัยปัญญาประดิษฐ์ใช้แนวคิดแบบพุทธเข้ามาประกอบ ก็อาจช่วยเตือนใจได้ว่าระบบที่ตัวเองพัฒนาขึ้นนั้น เมื่อใช้งานแล้วจะไม่ได้อยู่ลอยๆ แต่จะสอดประสานเข้าเป็นอันหนึ่งอันเดียวกับสิ่งแวดล้อมอื่นๆ จนอาจทำให้เกิดผลลัพธ์ที่ไม่คาดคิดขึ้น หรือหากนักวิจัยใช้หลักปรัชญาแบบอูบันตู (Ubuntu แนวคิดของแอฟริกันตอนใต้) เข้ามาช่วย พวกเขาก็จะรู้จักร้องขอความช่วยเหลือจากนักจริยธรรม นักสังคมศาสตร์ หรือวัฒนธรรมที่ปัญญาประดิษฐ์นั้นจะถูกใช้จริง

จะเห็นว่า ในรายงานฉบับปัจจุบัน ตัวกลุ่มนักวิจัยเองยังไม่ได้มีผลสรุปหรือแนวทางการพัฒนาปัญญาประดิษฐ์ออกมาชัดเจนนัก มีเพียง ‘แนวทางที่ควรทำในกระบวนการพัฒนาปัญญาประดิษฐ์’ เท่านั้น แต่เราอาจเห็นความชัดเจนที่มากขึ้นได้เมื่อรายงานฉบับเต็มออกมาในปี 2019

จนถึงตอนนั้น, คำถามที่ว่า ปัญญาประดิษฐ์ควรทำตัวอย่างไร ในวัฒนธรรมและความเชื่อที่แตกต่างกัน ก็ยังคงเป็นคำถามที่น่าสนใจ

เหมือนกับมนุษย์ ปัญญาประดิษฐ์ไม่สามารถทำตัวให้ ‘ถูกใจทุกคน’ ได้ - เมื่อมันเลือกหนทางที่ถูกใจคนหนึ่ง ก็ต้องมีคนที่ไม่ถูกใจเสมอ ลองคิดถึงปัญหาคลาสสิกอย่างที่ว่า ‘ถ้ารถยนต์ไร้คนขับกำลังจะชนเด็ก หรือกำลังจะชนคนแก่ อย่างหลีกเลี่ยงไม่ได้ มันควรจะเลือกชนคนไหน?’ หรือ ‘เมื่อใครคนหนึ่งถามสิริถึงที่ค้าปืน สิริควรให้คำตอบกับเขาทันทีหรือควรเช็คว่าเขามีความเหมาะสมไหมก่อน’ แล้วเราจะพบว่า การถกเถียงเรื่องจริยธรรมของปัญญาประดิษฐ์ไม่ใช่เรื่องไกลตัวอีกต่อไป แต่เป็นปัญหาสำคัญของทศวรรษนี้ทีเดียว

 

อ้างอิงจาก

IEEE Global Initiative for Ethical Considerations in Artificial Intelligence , Ethically Aligned Design

What Can AI Experts Learn from Buddhism? A New Approach to Machine-Learning Ethics Aims to Find Out

https://www.technologyreview.com/the-download/609790/what-can-ai-experts-learn-from-buddhism-a-new-approach-to-machine-learning

Photo Credit: www.innovationatwork.ieee.org