Back to Blogs

ปัญญาประดิษฐ์จะเรียนรู้ “สามัญสำนึก” ได้ไหม

มีนาคม 31, 2017 2:42 PM
views
common-sense-ai_k-champ-01

อันที่จริง คำว่า “สามัญสำนึก” ด้วยตัวมันเองก็เป็นปัญหาอยู่ไม่น้อยนะครับ คำว่า “สามัญ” ในภาษาอังกฤษตรงกับคำว่า common ซึ่งเซนส์ของความหมายของคำก็ค่อนข้างตรงกับภาษาไทยเหมือนกัน นั่นคือ ทั้งสามัญ และ common ต่างมีความหมายว่า ปกติ ธรรมดา และตามมาด้วยความหมายแฝงว่า “เป็นชนชั้นทั่วๆ ไป” (เช่น สามัญชน = คนธรรมดา, Ordinary People) หรือซ้ำร้าย ภาษาอังกฤษ คำว่า common ยังมีความหมายในเชิงเหยียดด้วย แปลว่า เถื่อนถ้ำ ขาดการเจียระไน ไร้รสนิยม (showing a lack of taste and refinement, vulgar)

ปัญหาของคำว่าสามัญสำนึกก็คือ ด้วยตัวของมันมีความหมายว่า “สิ่งที่ชาวบ้านทั่วๆ ไปรู้” หรือ “สิ่งที่ควรรู้เป็นปกติ” ซึ่งในโลกปัจจุบัน คำว่า “ปกติ” ก็ไม่ได้ปกติเหมือนกันไปทุกคนนัก สิ่งที่เราเห็นว่าไม่ปกติ เช่น การสวมรองเท้าเข้าบ้าน อาจจะเป็นเรื่องปกติในบางวัฒนธรรม ในขณะที่สิ่งที่เราเห็นว่าปกติ เช่น การไหว้ หรือการเคารพผู้ใหญ่ ก็อาจเป็นเรื่องไม่ปกติในบางวัฒนธรรมด้วย

เมื่อเป็นอย่างนี้ ความพยายามในการหา “สามัญสำนึก” ให้กับปัญญาประดิษฐ์จึงดูเป็นเรื่องซับซ้อน (เมื่อมนุษย์เองยังไม่ได้มีสามัญสำนึกร่วมกัน 100% เลย) จนกว่าเราจะจำกัดกรอบของคำว่าสามัญสำนึกเสียก่อน

หากคุณเคยผ่านตาบทความเกี่ยวกับปัญญาประดิษฐ์ คุณอาจคุ้นเคยกับคำว่า Turing Test ซึ่งเป็นการทดสอบ “ปัญญาประดิษฐ์’ อย่างง่ายๆ เสนอโดยอลัน ทัวริ่ง วิธีการทดสอบคือให้มนุษย์ลอง “แชต” (โดยที่ไม่เห็นหน้าค่าตา) ในโปรแกรมอะไรสักอย่าง โดยที่ไม่รู้ว่าอีกฝ่ายที่ตัวเองแชตอยู่ด้วยนั้น เป็นมนุษย์ด้วยกัน หรือเป็นโปรแกรมคอมพิวเตอร์ หากโปรแกรมคอมพิวเตอร์สามารถหลอกมนุษย์ให้เชื่อว่ากำลังคุยกับคนด้วยกันได้ โปรแกรมนั้นก็จะผ่านการทดสอบ

ปัญหาของ Turing Test คือมีวิธีมากมายในการที่โปรแกรมจะล่อหลอกให้มนุษย์เชื่อ เช่น ตอบไม่ตรงคำถามบ้าง ตอบเป็นประโยคกลางๆ ล่องลอยบ้าง ทวนคำถามบ้าง หรือแกล้งทำเป็นพิมพ์ผิด คิดนาน ก็ยังมี เมื่อเป็นเช่นนี้จึงมีคนพยายามออกแบบการทดลองขึ้นมาใหม่เพื่อทดสอบว่าปัญญาประดิษฐ์หนึ่งๆ นั้น จะ “เข้าใจ” หรือ “มีสามัญสำนึก” เหมือนมนุษย์ (อย่างน้อยก็มนุษย์ที่ใช้ภาษาอังกฤษได้ในระดับหนึ่ง) แค่ไหน

การทดสอบชุดใหม่อันหนึ่งมีชื่อว่า Winograd Schema Challenge เป็นการทดสอบที่จะให้เซตคำถามกับผู้ร่วมทดสอบ เซตคำถามเหล่านี้เป็นคำถามที่ถ้ามนุษย์ใช้สามัญสำนึกลองคิดดูก็จะหาคำตอบได้อย่างไม่ยากเย็น แต่มันก็เป็นคำถามที่ “กลางๆ ไม่ชัดเจน” ซึ่งมากพอที่จะล่อหลอกให้ปัญญาประดิษฐ์งงงวย ตัวอย่างคำถามเช่น “ใส่ถ้วยรางวัลลงไปในกระเป๋าสีน้ำตาลไม่ได้เพราะมันใหญ่เกินไป คำถามคือ อะไรที่ใหญ่เกินไป” (คำว่า “มัน” เป็นคำที่ไม่ชัดเจน แต่ถ้าใช้สามัญสำนึกก็จะตอบได้ว่าถ้วยรางวัลใหญ่เกินไป) หรือ “สมาชิกสภาเมืองยอมมอบใบอนุญาตให้กับผู้ประท้วง เพราะพวกเขาขู่ว่าจะใช้ความรุนแรง ใครขู่ว่าจะใช้ความรุนแรง?” (พวกเขาเป็นคำที่ไม่ชัดเจน ถ้าใช้สามัญสำนึกก็จะตอบได้ว่า ผู้ประท้วงขู่ว่าจะใช้ความรุนแรง ไม่ใช่สมาชิกสภา)

เหล่านี้คือคำถามที่ปัญญาประดิษฐ์ไม่อาจตอบได้โดย “การวิเคราะห์ประโยค” อย่างง่ายๆ ได้ เพราะมันต้องมีความเข้าใจในความสัมพันธ์ระหว่างสิ่งของ ประธาน และกรรมในประโยคในระดับหนึ่ง คือ ต้องมีความสามารถในการ “จินตนาการ” เหตุการณ์ตามประโยคได้มากพอ จึงจะสามารถตอบคำถามได้อย่างถูกต้อง

ในปัจจุบันมีปัญญาประดิษฐ์ที่ลองเข้าทดสอบตามโปรแกรมของ Winograd Schema Chellenge แล้วหลายตัว แต่ตัวที่ทำคะแนนได้ดีที่สุดก็ตอบถูกเพียง 48% และ 45% เท่านั้นเอง ซึ่งไม่ต่างจากการเลือกคำตอบแบบสุ่มเลย

แล้วทำอย่างไร ปัญญาประดิษฐ์ที่ “ไม่มีชีวิตจิตใจ” จึงจะตอบคำถามได้ดีขึ้น? เราก็ต้องสอน “สามัญสำนึก” ให้กับมันนั่นเอง

Yann LeCun ผู้อำนวยการฝ่ายวิจัยปัญญาประดิษฐ์ของเฟซบุ๊ก ให้สัมภาษณ์กับ MIT Technology Review ไว้ว่า เขาคิดว่าหนึ่งในหนทางที่เป็นไปได้ในการสอนสามัญสำนึกให้กับปัญญาประดิษฐ์ก็คือการให้ “การมองเห็น” (Visual Perception) กับมัน เขาบอกว่ามีนักพัฒนาสายหนึ่งที่คิดว่าการเรียนรู้ของปัญญาประดิษฐ์น่าจะต้องมีรูปร่างคล้ายกับการเรียนรู้ของเด็กทารก นั่นคือเรียนรู้ด้วยการ “สังเกตโลกรอบๆ ตัว” แทนที่จะต้องบอกว่า สิ่งใดมีความสัมพันธ์กับอีกสิ่งอย่างไร ผ่านทางตัวหนังสือ

“สิ่งหนึ่งที่พวกเราสนใจมาก คือ การสอนปัญญาประดิษฐ์ให้เรียนรู้ข้อมูลจากโลกจริง ผ่านทางการดูวิดีโอ หรือช่องทางอื่นๆ นี่เป็นหนทางที่จะทำให้พวกมันมีสามัญสำนึก คล้ายกับสิ่งที่เด็กทารกหรือลูกอ่อนของสัตว์เรียนรู้ในช่วงเดือนแรกๆ ของชีวิต ผมคิดว่า คุณสามารถเรียนรู้สิ่งต่างๆ รอบตัวได้อย่างมากมายมหาศาล ได้เพียงด้วยการสังเกตเท่านั้น ในตอนนี้ที่เราสามารถหลอกปัญญาประดิษฐ์ได้อย่างง่ายๆ ก็เพราะพวกมันมีความรู้อันจำกัดจำเขี่ยเกี่ยวกับโลกจริงอยู่”

แล้วเมื่อปัญญาประดิษฐ์มี “สามัญสำนึก” แล้ว มันจะถูกพัฒนาไปในทางใด? ทางหนึ่งที่มีผู้คาดเดากันไว้มากคือ มันจะนำไปสู่การพัฒนา “ปัญญาประดิษฐ์แบบทั่วไป” (General AI) ที่สามารถถูกสอนให้แก้ปัญหาใดๆ เพิ่มเติมก็ได้โดยไม่ยึดติดกับสภาพงาน (Task-specific)

ลองนึกถึงปัญญาประดิษฐ์อย่าง HAL ใน 2001: Space Odyssee สิครับ – อย่างนั้นแหละ

ในทางหนึ่งก็น่ากลัว, แต่อีกทาง ก็น่าตื่นเต้น

Digital Ventures x Champ Teepagorn

แห่งวัฒนธรรมชุบแป้งทอด ThaiPBS นักเขียนคอลัมน์ World While Web ณ นิตยสาร a day และ Head in the clouds ณ นิตยสาร GM ถนัดเขียนหนังสือ ชอบวาดการ์ตูน และวาดภาพประกอบ