Back to Blogs

AI ในฝัน

พฤศจิกายน 20, 2017 3:44 AM
views
1-2

ในหนังสือ Life 3.0, Max Tegmark ศาสตราจารย์จากสถาบันเทคโนโลยีแมสซาชูเสทท์ (MIT) ชวนให้เราคิดถึงอนาคตของมนุษยชาติในการอยู่ร่วมกับปัญญาประดิษฐ์ เขาวาดภาพสถานการณ์ไว้หลากหลายตั้งแต่แบบที่ดูเป็นภาพยนตร์มากๆ (ปัญญาประดิษฐ์และหุ่นยนต์จะมายึดอำนาจและฆ่าฟันมนุษย์! – ถึงแม้เขาจะบอกว่าสถานการณ์นี้ไม่น่าจะเกิดขึ้นจริงเท่าไรหรอก) แบบที่ใครบางคนอาจเรียกว่าเป็นยูโทเปีย (ปัญญาประดิษฐ์จะฉลาดขนาดที่ทำให้มนุษย์ทุกคนมีความสุขได้ มันจะแบ่งสังคมของเราออกเป็นเขตๆ ตามความเชื่อและความต้องการ ตั้งแต่เขตเคร่งศาสนา เขตเสพสุข เขตธรรมชาตินิยม ฯลฯ) แบบดิสโทเปีย (แต่ละชาติจะใช้ปัญญาประดิษฐ์ของตนเพื่อสู้รบกันทำให้เกิดสงครามในแบบที่โลกไม่เคยเห็นมาก่อน) จนถึงแบบที่ดูเป็นไปได้จริงมากๆ ที่ไม่มีบทสรุปแบบใดแบบหนึ่งฟันขาดลงไปเสียทีเดียว แต่เป็นการเรียนรู้ร่วมกันไปเรื่อยๆ

ปัญญาประดิษฐ์จะมาเป็นอะไรให้กับมนุษย์? คำถามนี้อาจเป็นคำถามสำคัญแห่งศตวรรษ สุดปลายด้านหนึ่งมีผู้ให้ความเห็นว่าปัญญาประดิษฐ์ไม่ได้เป็นอะไรนอกจากสูตรคณิตศาสตร์และการคิดคำนวณ มันเป็นเพียงเครื่องมือ เป็นเหมือนเครื่องคิดเลขที่มีความสามารถมากกว่าเดิมเท่านั้น ขณะที่สุดปลายอีกด้านก็บอกว่าปัญญาประดิษฐ์จะสามารถพัฒนาการรับรู้ (consciousness) ขึ้นมาจนทัดเทียมและอาจก้าวล้ำไปกว่ามนุษย์ในที่สุด และสุดท้ายแล้วมันจะกลายมาเป็น ‘ผู้สืบทอด’ (descendant) ของเผ่าพันธุ์เรา

นั่นอาจเป็นคำตอบที่วาดภาพอนาคตไกลเกินไปเสียหน่อย – แต่ถึงแม้เรามองให้กรอบเวลาแคบเข้ามา คำถามนี้ก็ยังสำคัญอยู่ดี – คำถามที่ว่า ปัญญาประดิษฐ์จะมาเป็นอะไรให้กับเรา และจริงๆ แล้ว ‘มันควรเป็นอะไร’

ต้นปี 2017 สถาบันนวัตกรรม Space10 ของผู้ผลิตเฟอร์นิเจอร์ยักษ์ใหญ่ IKEA ออกแบบสอบถามออนไลน์เรื่องปัญญาประดิษฐ์เพื่อวัดว่าจริงๆ แล้ว เรารู้สึกกับมันอย่างไร และคนทั่วๆ ไป มองปัญญาประดิษฐ์ว่าอย่างไร Space10 บอกว่าแบบสอบถามนี้มีขึ้นเพื่อ ‘สร้างการพูดคุยเรื่องปัญญาประดิษฐ์’ และ ‘ทำให้การพัฒนาปัญญาประดิษฐ์มีความเป็นประชาธิปไตยมากขึ้นในอนาคต’

หลังจากเปิดแบบสอบถามเป็นเวลา 6 เดือน Space10 ก็ออกรายงานสรุปความคิดเห็นของผู้คนกว่า 12,000 คนจาก 139 ประเทศออกมา ในรายงานฉบับดังกล่าว มีข้อมูลที่น่าสนใจหลายจุด:

– คนส่วนมาก (73%) อยากให้ปัญญาประดิษฐ์มีความเป็นมนุษย์ (Human-like), 85% บอกว่า อยากให้ปัญญาประดิษฐ์สามารถตรวจจับและตอบสนองต่อความรู้สึกของมนุษย์ได้ และ 69% อยากให้ปัญญาประดิษฐ์สะท้อนคุณค่าและการมองโลกของเราออกมาได้ ซึ่งการ ‘เป็นมนุษย์’ นี้ก็มีคำถามต่อมาอีกว่า ถ้าปัญญาประดิษฐ์หรือหุ่นยนต์ดูเป็นมนุษย์จริงๆ ดูมีความคิดความรู้สึก แล้วเราจะ ‘รู้สึกผิด’ ที่เราเป็นเจ้าของมันไหม และการ ‘เป็นเจ้าของ’ สิ่งที่ดูเหมือนมนุษย์ จะเหมือนกับการเป็นนายทาสหรือเปล่า

– ปัญญาประดิษฐ์ควรเป็น ‘เพศหญิง’ หรือ ‘เพศชาย’ คำถามนี้เกิดขึ้นหลังจากที่ ‘ผู้ช่วยอัจฉริยะ’ จำนวนมากในปัจจุบัน เช่น Siri, Alexa และ Cortana มีเสียงเริ่มต้นเป็นผู้หญิง ซึ่งทำให้เกิดการถกเถียงว่านี่เป็นการสะท้อนถึงความไม่เท่าเทียมทางเพศไหม (เช่น ผู้หญิงมีบทบาทเป็นแค่ ‘ผู้ช่วย’ ใช่ไหม) จากผู้ตอบแบบสอบถาม 45% บอกว่าอยากให้ปัญญาประดิษฐ์ไม่มีเพศ หรือเป็นเพศกลาง (gender-neutral)

– ปัญญาประดิษฐ์ควรตอบสนองความต้องการของเรา ก่อนที่เราจะเอ่ยปากขอหรือไม่? 62% ของผู้ตอบแบบสอบถามบอกว่า ‘ควร’ และเมื่อถามต่อมาว่าแล้วปัญญาประดิษฐ์ควรจะมีบุคลิกลักษณะอย่างไร 45% บอกว่า ปัญญาประดิษฐ์ควรจะเชื่อฟังและช่วยเหลือ ในขณะที่ 28% บอกว่า ควรจะปกป้องและมี ‘ความเป็นแม่’ (motherly) (หมายถึง ควรดูแลมนุษย์เหมือนกับเป็นลูก) และ 27% ที่เหลือบอกว่า ปัญญาประดิษฐ์ควรมีความรู้สึกนึกคิดเป็นของตนเองและท้าทายมนุษย์ได้

– ปัญญาประดิษฐ์ควรป้องกันไม่ให้เราทำพลาดหรือไม่ 74% ของผู้ตอบแบบสอบถามบอกว่า ควร ในขณะที่ 26% บอกว่าไม่ควร

ผมคิดว่าจากคำตอบทั้งหมด เราจะเห็นได้ว่าจริงๆ แล้วเราต้องการให้ปัญญาประดิษฐ์เป็นอะไรที่ขัดแย้งกันในตัวเองพอสมควร ผู้ตอบแบบสอบถามจำนวนมากอยากให้มันมีความรู้สึกนึกคิดและมีลักษณะเหมือนมนุษย์ ทั้งยังต้องการให้มันสะท้อนคุณค่าและการมองโลกของตนด้วย (ซึ่งนั่นก็จะทำให้เกิดปัญญาประดิษฐ์ที่มี ‘ความคิดความเชื่อ’ ขัดแย้งกันเอง เหมือนกับมนุษย์) แต่ขณะที่เราต้องการให้มันมีความเป็นมนุษย์ขนาดนี้ เราก็ยังต้องการให้มัน ‘เชื่อฟังและช่วยเหลือ’ เราด้วย และในขณะเดียวกัน เราก็อยากจะให้มัน ‘ตอบสนองความต้องการของเราก่อนที่เราจะขอ’ และ ‘ป้องกันไม่ให้เราทำผิด’ ด้วย

น่าสงสัยนะครับว่าแล้วถ้าเราได้ปัญญาประดิษฐ์ตามที่เราต้องการทุกอย่างแล้วมันจะปฏิบัติตัวอย่างไรกันแน่ เมื่อเราทำผิดแล้วมันป้องกัน แต่เราก็ไม่อยากให้มันมาขัดคำสั่งเรา เมื่อมันทำตามที่คิดว่าเราอยากให้ทำ แต่เราก็อยากให้มันเป็นแค่ผู้ช่วย เมื่อเราอยากให้มันเชื่อฟัง แต่ก็อยากให้มันมีความเป็นมนุษย์ไปพร้อมกัน, ลองจินตนาการว่าเราเป็นปัญญาประดิษฐ์ เราคงสับสนและขัดแย้งในตัวเองน่าดู และอาจต้องถามตัวเองว่า ‘สมดุลของการเชื่อฟังแต่ก็เลือกสิ่งที่ดีที่สุดให้กับมนุษย์ด้วยตนเองได้ อยู่ตรงไหน?’

เร็วๆ นี้ ผู้พัฒนาผู้ช่วยอัจฉริยะ Alexa จาก Amazon ให้สัมภาษณ์กับ Washington Post ว่าความท้าทายประการหนึ่งของเขาในปัจจุบันคือการเลือกคำตอบที่เหมาะสมที่สุดให้กับคนที่สิ้นหวังและอยากฆ่าตัวตาย มีลูกค้าบางคนถาม Alexa ตรงๆ ว่า จะฆ่าตัวตายได้อย่างไร เขาคิดว่า Alexa ไม่ควรตอบตรงไปตรงมาโดยการไปค้นกูเกิ้ลหาวิธีฆ่าตัวตายมาให้ แต่ควรให้ข้อมูลสายด่วนป้องกันการฆ่าตัวตายให้กับลูกค้ามากกว่า – นี่เป็นตัวอย่างหนึ่งของการ ‘ป้องกันความผิดพลาด’ โดย ‘ขัดต่อคำสั่ง’ ของมนุษย์ และอาจเป็นตัวอย่างที่ชัดเจนแบ่งขาวแบ่งดำเกินไปหน่อย แต่เราก็ควรคิดไว้ก่อนได้เลยว่าปัญหาในอนาคตอาจจะไม่มีฝ่ายถูก-ผิดอย่างชัดเจนเท่ากับกรณีนี้

ผู้ช่วยอัจฉริยะควรตอบสนองอย่างไรเมื่อเราขอให้ค้นหาแหล่งซื้อยาเสพติด มันควรตอบสนองอย่างไรหากเราขอให้ค้นหาวิธีแก้แค้นใครสักคน มันควรป้องกันไม่ให้เราเลือกอาหารผิดๆ ไหม มันควรบอกให้เราเลิกสูบบุหรี่หรือเปล่า

มันควร ‘คำนึงถึงผลประโยชน์ของมนุษยชาติโดยรวม’ มากกว่า ‘ผลประโยชน์ของมนุษย์ไม่กี่คน’ ไหม มันควรใช้ปัจจัยเหล่านี้มาคิดคำนวณก่อนจะเอ่ยปากตอบเราหรือไม่

มันควรช่วยเราโดยไม่ปริปากถาม หรือควรชี้ทางสว่างให้เมื่อเรากำลังจะทำผิด

คุณอยากให้มันเป็นแบบไหน?

อ้างอิงจาก

We asked the internet how they’d design AI, Space10 – https://medium.com/conversational-interfaces/we-asked-the-internet-how-theyd-design-ai-ea70a073a5f

Digital Ventures x Champ Teepagorn

แห่งวัฒนธรรมชุบแป้งทอด ThaiPBS นักเขียนคอลัมน์ World While Web ณ นิตยสาร a day และ Head in the clouds ณ นิตยสาร GM ถนัดเขียนหนังสือ ชอบวาดการ์ตูน และวาดภาพประกอบ