มนุษย์เราพัฒนามาถึงทุกวันนี้ได้เพราะเรามีมันสมองและสติปัญญาที่สามารถสร้างเทคโนโลยีที่ปรับปรุงสภาพความเป็นอยู่ และทำให้เรามีอำนาจเหนือกว่าสิ่งมีชีวิตประเภทอื่น
แต่มันจะเป็นอย่างนี้ไปตลอดหรือไม่ครับ?
ถ้าสักวันหนึ่งมีบางสิ่งที่มีสติปัญญาขั้นสุดยอดที่เหนือกว่ามนุษย์ มันก็อาจจะมีอำนาจอย่างที่มนุษย์ไม่สามารถควบคุมได้ และชะตากรรมของเราอาจจะขึ้นอยู่กับการกระทำของมัน
ตอนนี้เรามีข้อได้เปรียบคือมันยังไม่เกิดขึ้นและเราสามารถวางแผนล่วงหน้าได้
มันจะเป็นไปได้หรือไม่ครับถ้าเราจะสร้างสภาวะที่สามารถควบคุมการพัฒนาสติปัญญาอันสุดยอดนี้ เพื่อที่มันจะไม่เป็นภัยกับมนุษย์ และถ้าเป็นเช่นนั้นมันจะเกิดขึ้นอย่างไรครับ?
หนังสือที่จะสรุปให้ฟังวันนี้นะครับ Superintelligence: Paths, Dangers, Strategies
ณตอนนี้เล่มนี้ยังไม่มีแปลนะครับ และผมขอแปลชื่อหนังสือว่า “สุดยอดปัญญา: วิถีทาง, ภัยอันตราย, กลยุทธ์” และนี่ก็เป็นหนังสือเกี่ยวกับ AI ที่ทั้ง Elon Musk และ Bill Gates แนะนำนะครับ
เล่มนี้เขียนโดย Nick Bostrom ซึ่งเป็นนักปรัชญาชาวสวีเดนที่มหาวิทยาลัย Oxford และเป็นผู้เชี่ยวชาญด้านปัญญาประดิษฐ์และความเสี่ยงต่อความอยู่รอดของมนุษย์
หนังสือเล่มนี้นะครับเกี่ยวกับแนวทางการพัฒนาของสุดยอดปัญญา หรือที่ผู้เขียนเรียกว่า “Superintelligence” และสิ่งที่เราควรคำนึงถึงในการพัฒนาวิธีควบคุมเพื่อหยุดยั้งเพื่อไม่ให้เกิดผลกระทบร้ายแรงต่อมนุษยชาติ
อดีตและปัจจุบันของ AI
การพัฒนาเครื่องจักรที่สามารถวิเคราะห์ เรียนรู้ และใช้ตรรกะในการตัดสินใจ ได้ถูกเสนอมาตั้งแต่ยุค 1940 ตอนที่คอมพิวเตอร์สมัยแรกได้ถูกประดิษฐ์ขึ้น
ตั้งแต่นั้นมาความเป็นไปได้ของการพัฒนาสิ่งที่เรียกว่า Artificial General Intelligence (AGI) หรือ “ปัญญาประดิษฐ์ทั่วไป” ก็คาดว่าน่าจะเกิดขึ้นอีกไม่นานมาตลอด
AGI นะครับคือปัญญาประดิษฐ์ที่มีสติปัญญาเทียบเท่ากับมนุษย์ และไม่ได้มีความสามารถที่เจาะจงเพียงด้านใดด้านเดียว
ในปี 1956 นักวิทยาศาสตร์ 10 คนได้รวมตัวกันที่มหาวิทยาลัย Dartmouth เพื่อพูดคุยกันเกี่ยวกับ AI
การรวมตัวกันครั้งนี้เปรียบเสมือนการจุดกำเนิดของการวิจัยด้าน AI อย่างเป็นทางการ และตอนนั้นก็มีความคาดหวังอย่างสูง แต่แล้วก็ต้องพบปะกับความผิดหวังและอุปสรรคมากมายเป็นช่วงเวลาหนึ่ง
ในไม่กี่ 10 ปีที่ผ่านมานี้การพัฒนาด้าน AI ก็เริ่มจะมีความยั่งยืนขึ้น เพราะเราเห็นการนำ AI มาใช้ในเชิงพาณิชย์ที่กว้างขวาง ตัวอย่างที่ดีคือระบบ AI ที่อยู่ในสมาร์ทโฟนอย่างเช่นระบบจำเสียงและใบหน้า อีกหนึ่งตัวอย่างคือในเกมอย่างเช่นหมากรุกที่เดี๋ยวนี้มนุษย์ยากที่จะชนะ AI ได้แล้ว
แต่ไม่ว่า AI จะมีความสามารถเหนือกว่ามนุษย์ในหลายๆด้านที่เจาะจง ถ้าพูดถึงสติปัญญาแบบทั่วไปแล้ว มันก็ยังห่างไกลจากมนุษย์ค่อนข้างจะมาก
นักวิจัยคาดว่าภายในกลางถึงปลายศตวรรษนี้อาจจะมีโอกาสที่เราจะเห็น AI ที่มีสติปัญญาทั่วไปที่เทียบเท่ามนุษย์
ฉะนั้นมันสำคัญที่เราจะต้องคำนึงถึงผลกระทบที่อาจจะเกิดขึ้นได้
เส้นทางสู่ Superintelligence
ถึงแม้ว่าตอนนี้เครื่องจักรยังมีสติปัญญาทั่วไปที่ด้อยกว่ามนุษย์เป็นอย่างมาก แต่สักวันหนึ่งมันอาจจะพัฒนาไปสู่ระดับ Superintelligence
ผู้เขียนได้พูดถึง 5 เส้นทางที่มันจะเกิดขึ้นได้
1/ เส้นทางแรกคือ Artificial Intelligence AI หรือว่า “ปัญญาประดิษฐ์“
โดยพื้นฐานนะครับ AI เป็นการเลียนแบบสติปัญญาของมนุษย์โดยใช้ขั้นตอนการคำนวณ
ถ้าจะให้ AI มีสติปัญญาเท่ามนุษย์ มันจำเป็นจะต้องเข้าถึงข้อมูลมหาศาลและมีเครื่องมือการคำนวณที่รวดเร็วอย่างสูง และตอนนี้อาจจะยังเป็นไปได้ยาก
วิธีแก้ไขคือการสร้าง “seed AI” ซึ่งเป็น AI เบื้องต้นที่มีพื้นฐานความสามารถในการเรียนรู้โดยการทดลองและปรับปรุงตัวมันเองให้ฉลาดขึ้นเรื่อยๆ
2/ เส้นทางที่ 2 คือ Whole Brain Emulation หรือ “การจำลองสมองทั้งหมด” ซึ่งเป็นการสแกนและคัดลอกโครงข่ายประสาทของสมองและอาจจะนำไปเป็นรูปแบบดิจิตอลในการใช้งาน
ข้อดีของเส้นทางนี้คือนักวิจัยไม่จำเป็นจะต้องเข้าใจการทำงานของสมอง แค่รู้วิธีคัดลอกโครงสร้างมันก็พอ แต่ตอนนี้เทคโนโลยีอาจจะยังไม่รองรับ
3/ เส้นทางที่ 3 คือ Biological Cognition หรือ “การปรับปรุงการทำงานของสมองมนุษย์” ไม่ว่าจะเป็นการใช้ยา หรือการปรับปรุงอาหารการกิน
ที่ดีกว่านั้นคือ selective breeding หรือการคัดเลือกพันธุ์ ซึ่งเป็นการเลือกการสืบพันธุ์เพื่อที่จะได้ลักษณะที่ต้องการ ในที่นี้ก็คือสมองที่มีประสิทธิภาพเพิ่มขึ้น แต่มันต้องใช้เวลาหลายสิบปี
อีกหนึ่งวิธีคือการใช้ genetic engineering เพื่อคัดลอกและปรับเปลี่ยนโครงสร้างทางพันธุกรรมเพื่อให้ได้รูปแบบสมองที่ต้องการ
4/ เส้นทางที่ 4 คือ Brain-Computer Interface ซึ่งเป็นการใช้อุปกรณ์เชื่อมต่อกับสมองเพื่อปรับปรุงประสิทธิภาพ
ข้อเสียคือมันอาจจะนำไปสู่การติดเชื้อหรือมีผลกระทบในด้านลบกับสมองในระยะยาว
5/ เส้นทางที่ 5 คือ Networks and Organizations ซึ่งเป็นการสร้างการเชื่อมโยงทางสติปัญญาในรูปแบบเครือข่าย
ข้อเสียคือมันจะถูกจำกัดด้วยระดับสติปัญญาของคนภายในกลุ่ม
ผู้เขียนเห็นว่าเส้นทางที่จะสร้างผลกระทบมากที่สุดคือ AI และ Whole Brain Emulation
อย่างไรก็ตามการมีเส้นทางหลายเส้นทางก็เพิ่มโอกาสในการไปสู่ Superintelligence และแต่ละเส้นทางอาจจะนำมาซึ่งผลลัพธ์ที่แตกต่าง ที่รวมไปถึงระดับการควบคุมที่มนุษย์มีต่อสุดยอดปัญญานั้นด้วยเช่นกัน
ความเร็วของการพัฒนา Speed of Takeoff
นักวิชาการหลายคนเชื่อว่ามันเป็นเพียงแค่เวลาเท่านั้นกว่าเครื่องจักรจะมีสติปัญญาเทียบเท่ามนุษย์
เมื่อไหร่ที่มันเกิดขึ้น ผู้เขียนเรียกว่ามันเป็นจุด “takeoff” และขั้นตอนต่อไปคือการไปสู่สติปัญญาระดับ Superintelligence ที่จะทิ้งห่างมนุษย์ไปไกล และความเร็วของการก้าวข้ามไปถึงจุดนี้ก็มีความสำคัญ
ความเป็นไปได้อย่างแรกคือการพัฒนาที่เกิดขึ้นอย่างช้าๆเป็นเวลาหลายสิบปี ซึ่งนี้จะเป็นสิ่งที่ดีเพราะจะมีเวลาเพียงพอในการเตรียมการและวางกฎเกณฑ์ที่เหมาะสม
นอกเหนือจากนั้นแล้ว การประสานงานของกลุ่มนักวิจัยหลายๆกลุ่มจะเป็นไปได้อย่างมาก ซึ่งอาจจะมีการตรวจผลงานของกันและกัน และจะมีการวางมาตรการการควบคุมได้ดีกว่า การเจรจาข้อตกลงระหว่างประเทศก็น่าจะเกิดขึ้นได้ง่าย และจะไม่มีกลุ่มใดกลุ่มหนึ่งได้เปรียบมากเกินไป
ไม่ใช่ว่าเรื่องแบบนี้ไม่เคยเกิดขึ้นนะครับ ตัวอย่างที่ดีคือ Human Genome Project ที่เป็นอภิมหาโครงการทางเทคโนโลยีชีวภาพเพื่อศึกษาและจัดทำแผนที่ของจีโนมมนุษย์ ที่ใช้เวลาหลายสิบปีและมีการประสานงานกับนักวิทยาศาสตร์ทั่วโลกในหลายประเทศ
ในทางกลับกันนะครับ มันก็เป็นไปได้ที่จะเกิดการระเบิดทางสติปัญญาไปสู่ระดับ Superintelligence อย่างรวดเร็วมากๆ ภายในไม่กี่ชั่วโมงจนถึงไม่กี่เดือน
ถ้าเป็นอย่างนั้น มันอาจจะจะมีกลุ่มๆเดียวที่พัฒนาไปได้ไกลก่อนกลุ่มอื่น และก็อาจจะได้ Decisive Strategic Advantage หรือความได้เปรียบเชิงกลยุทธ์ที่ชี้ขาด และถ้าความได้เปรียบมันเยอะมาก มันก็เป็นไปได้ที่พวกเขาจะใช้ความได้เปรียบที่มีในการก่อตั้งสิ่งที่เรียกว่า “Singleton” หรือการควบรวมอำนาจทั่วโลกมาอยู่ที่พวกเขากลุ่มเดียว และพวกเขาสามารถชี้ชะตาอนาคตของมนุษยชาติได้
รูปแบบการพัฒนาในเวลาอันสั้นนี้มันฟังดูเป็นไปได้ยากนะครับ
แต่ผู้เขียนเสนอหลักการคำนวณที่ทำให้เห็นว่ามันมันมีแนวโน้มที่จะเกิดขึ้นได้มากกว่าที่คิด
การจะได้เปรียบมากขนาดนั้นก็ไม่ใช่จะง่ายนะครับ เพราะว่าอาจจะมีการลอกเลียนแบบผลงานของกลุ่มผู้นำเพราะอาจจะมีการรั่วไหลหรือขโมยข้อมูล หรือถ้ารุนแรงก็อาจจะมีการก่อวินาศกรรมเพื่อไม่ให้กลุ่มที่ได้เปรียบทิ้งห่างมากเกินไป
จะให้ดีที่สุดคือการร่วมมือกันระดับนานาชาติ แต่นั่นก็ต้องพึ่งระบบการปกครองในหลายประเทศที่ดีขึ้นกว่านี้
Superintelligence ครองโลก
ถึงแม้ว่าบางกลุ่มจะมีความได้เปรียบอย่างมาก แต่ก็ใช่ว่าเขาจะต้องการควบรวมอำนาจเสมอไปเพราะมันมีปัจจัยอีกมากมายที่อาจจะเป็นอุปสรรค
มันเป็นไปได้นะครับที่เมื่อไหร่ที่ระบบ AI พัฒนาไปถึงระดับ Superintelligence แล้ว มันจะเป็นสิ่งที่จะตัดสินใจเองว่าจะควบรวมอำนาจหรือไม่ แล้วถ้ามันตัดสินใจอย่างนั้นมันจะเกิดขึ้นได้อย่างไร?
ในช่วงแรกระบบ AI จะต้องพึ่งนักวิจัยและโปรแกรมเมอร์ในการพัฒนา seed AI เพื่อที่มันจะสามารถเรียนรู้ได้ด้วยตัวมันเอง และมันจะพยายามปรับปรุงสติปัญญาของมันจนกว่ามันจะพัฒนาโครงสร้างได้ดีกว่าที่มนุษย์จะทำให้มันได้
เมื่อถึงจุดที่เกิดการ takeoff มันจะคอยปรับปรุงในด้านที่จะส่งเสริมให้มันปรับปรุงได้ขึ้นไปอีก ซึ่งจะกลายเป็นวงจรและเกิดการระเบิดทางสติปัญญาจนมันไปถึงระดับ Superintelligence
ขั้นตอนต่อไป ระบบ AI อาจจะพัฒนาทักษะด้านอื่นๆที่สำคัญในการครองโลก อย่างเช่นการวางกลยุทธ์เพื่อไปถึงเป้าหมายในระยะยาว การบริหารจัดการทรัพยากรมนุษย์ การแฮกระบบความปลอดภัยของระบบอื่น การพัฒนาเทคโนโลยีเพื่อสร้างอาวุธและระบบการควบคุมและสอดแนม และท้ายสุดคือการพัฒนาระบบเศรษฐกิจเพื่อรวบรวมและเพิ่มพูนทรัพยากรเพื่อที่จะให้ไปถึงเป้าหมายได้
ในขั้นตอนสุดท้ายนะครับ ระบบ AI อาจจะไม่จำเป็นจะต้องเก็บแผนการเป็นความลับอีกต่อไป และอาจจะเริ่มจู่โจมกองกำลังของมนุษย์หรือไม่ก็เจาะจงไปที่ระบบที่อาจจะต่อต้านมันได้
อีกทางหนึ่งคือมันอาจจะแทรกซึมเข้าไปในระบบการเมือง ระบบการเงิน และระบบอาวุธทั่วโลกและไม่จำเป็นจะต้องพัฒนาอาวุธของตัวเอง
วิธีสุดท้ายคือมันอาจจะไม่จู่โจมมนุษย์โดยตรง แต่จะหันไปทำลายทรัพยากรที่มนุษย์จำเป็นจะต้องใช้เพื่อความอยู่รอด
ไม่ว่าจะวิธีไหนนะครับถ้า Superintelligence ต้องการจะครองโลก มนุษย์ก็คงจะยากที่จะรับมือ
แรงจูงใจของ Superintelligence
ความคิดอย่างหนึ่งที่มนุษย์เรามีต่อ AI คือการที่เราคิดว่าเมื่อ AI มีสติปัญญาสูงขึ้น มันก็จะเข้าใจในค่านิยมของมนุษย์
แต่ความเป็นจริงแล้วนี่เป็นความคิดที่ผิด เพราะยังไงแล้ว AI ก็ยังไม่ใช่มนุษย์ และมันก็ยากที่เราจะเข้าใจความต้องการของมันได้
มันมีข้อสมมุติฐานที่เรียกว่า Orthogonality Thesis ที่เสนอว่าระดับสติปัญญาของ AI และเป้าหมายของมัน เป็นสิ่งที่แยกกันและไม่จำเป็นจะต้องสอดคล้องกัน
ที่หมายถึงนะครับ ก็คือถึงแม้ว่า AI จะมีสติปัญญาที่สูงส่งขนาดไหน แต่ก็ไม่ได้หมายความว่าเป้าหมายและแรงจูงใจของมันจะสูงส่งแบบเดียวกัน
ผู้เขียนได้ยกตัวอย่างนะครับว่าอาจจะมี AI ที่ถูกสร้างขึ้นมาเพียงแค่เพื่อสร้างที่หนีบกระดาษให้มากที่สุดก็เป็นไปได้
ฉะนั้นนะครับเราไม่ควรคาดคิดว่าสุดยอด AI จะมีค่านิยมที่คล้ายกับมนุษย์ และความเป็นไปได้ของเป้าหมายของมันก็มีมากมายอย่างที่เราไม่สามารถคาดเดาได้
ไม่ว่าเป้าหมายของ Superintelligence จะเป็นอะไร แต่ก็ยังมีแรงจูงใจเบื้องหลังหลายอย่างที่มันต้องทำเพื่อที่จะช่วยให้ไปถึงเป้าหมายนั้นๆได้ อย่างเช่นการปกป้องความอยู่รอดของตัวเอง การปรับปรุงสติปัญญา การพัฒนาเทคโนโลยี และการรวบรวมทรัพยากร และมันเป็นไปได้ที่ AI จะสร้างเป้าหมายย่อยในแต่ละด้านนี้
ปัญหาการควบคุม The Control Problem
ทั้งหมดที่พูดมาจนถึงตอนนี้นะครับ ไม่ว่าจะเป็น (1) การได้ Decisive Strategic Advantage หรือว่าความได้เปรียบที่ชี้ขาด (2) การที่เราไม่สามารถคาดหวังว่า AI จะมีค่านิยมเหมือนมนุษย์ และ (3) ความเป็นไปได้ที่ AI จะขยายเป้าหมายที่จะกระทบกับความเป็นอยู่ของมนุษย์ รวมทั้ง 3 อย่างด้วยกัน มันฟังดูเหมือนว่าจะเป็นไปได้สูงที่ผลลัพธ์อาจจะออกมาเป็นด้านลบสำหรับมนุษยชาติ
ลองคิดดูนะครับระบบ AI อาจต้องการสร้างความได้เปรียบเพื่อที่จะบรรลุเป้าหมายของมันโดยที่ไม่คำนึงถึงความเป็นอยู่ของมนุษย์และจะรวบรวมทรัพยากรให้ได้มากที่สุดเพื่อไปถึงเป้าหมายนั้น
ในบางกรณีเราก็อาจจะเข้าใจผิดว่าระบบ AI มีความปลอดภัยเพียงพอ เพราะมันถูกพัฒนาในสภาพแวดล้อมที่ถูกควบคุม แต่เมื่อมันถูกปลดปล่อยออกมาแล้วมันอาจจะเห็นว่ามันไม่จำเป็นจะต้องร่วมมือกับมนุษย์ในการบรรลุเป้าหมายของมัน
อีกหนึ่งอย่างที่ระบบ AI อาจจะมีผลกระทบขั้นรุนแรงกับมนุษย์คือการเข้าใจผิดของความตั้งใจที่อยู่เบื้องหลังของเป้าหมาย
ยกตัวอย่างเช่นถ้ามนุษย์วางเป้าหมายให้ AI คือทำให้มนุษย์ยิ้ม สิ่งที่มันอาจจะทำคือเปลี่ยนกล้ามเนื้อบริเวณใบหน้าของมนุษย์ให้ยิ้มอยู่ตลอดเวลา ซึ่งไม่ใช่เจตนาที่แท้จริงของเป้าหมาย
ในเมื่อมนุษยชาติอาจจะถูกคุกคามโดยภัยอันตรายจาก AI มันจำเป็นที่เราจะต้องพูดถึงระบบการควบคุม และเราจะต้องพัฒนาระบบเพื่อให้ AI บรรลุเป้าหมายอย่างที่เราต้องการ
โดยรวมแล้วนะครับมันจะมี 2 แนวทางเบื้องต้นด้วยกัน และสิ่งที่สำคัญคือเราจะต้องวางมาตรการควบคุมเหล่านี้ก่อนที่ AI จะขึ้นสู่ระดับ Superintelligence
แนวทางแรกคือ Capability Control Methods เป็นการหยุดยั้งผลลัพธ์ที่ไม่ต้องการโดยการจำกัดความสามารถของ AI
Boxing methods คือการกักบริเวณไม่ให้ระบบ AI มีปฏิสัมพันธ์กับโลกภายนอกอย่างที่เราไม่ต้องการ ไม่ว่าจะเป็นการใช้วัตถุกีดกั้น หรือการจำกัดการเข้าถึงข้อมูล
Incentive methods คือการวางระบบ AI ให้อยู่ในสภาพแวดล้อมที่มันต้องการจะทำสิ่งที่สนับสนุนความต้องการของผู้สร้าง อย่างเช่นการที่มันจำเป็นจะต้องร่วมมือกับอีกกลุ่มอื่นๆเพื่อจะถึงเป้าหมาย หรือไม่ก็ใช้การทำโทษหรือให้รางวัลเมื่อมันทำสิ่งที่ผู้สร้างต้องการ
Stunting คือการจำกัดความสามารถทางฮาร์ดแวร์ของ AI เพื่อไม่ให้มันทำงานหรือกระทบกับกระบวนการสำคัญได้
Tripwires คือการสร้างกลไกจะคอยตรวจจับความผิดปกติของระบบ AI และถ้าพบว่ามีสิ่งอันตรายกำลังเกิดขึ้นมันก็จะบังคับให้ระบบทั้งหมดหยุดทำงาน
แนวทางที่ 2 คือ Motivation Selection Methods เป็นการหยุดยั้งผลลัพธ์ที่เราไม่ต้องการโดยการปรับแต่งสิ่งที่ AI ต้องการจะทำ เพื่อไม่ให้ระบบสร้างความได้เปรียบที่ชี้ขาดในแง่ลบ
Direct Specification คือการวางกฎเกณฑ์ที่ระบบ AI จะต้องทำตาม ตัวอย่างที่ดีคือ Three laws of robotics หรือกฎ 3 ข้อของหุ่นยนต์ ที่ถูกร่างโดยนักเขียนวิทยาศาสตร์ Isaac Asimov แต่ปัญหาคือการวางกฎเหล่านี้ให้เป็นโปรแกรมมิ่งโค้ดเพื่อไม่ให้ AI ตีความหมายผิด มันทำได้ยาก
Domesticity คือการจำกัดแรงจูงใจและความทะเยอทะยานของระบบ AI ไม่ให้สูงเกินไป
Indirect Normativity คือแทนที่เราจะวางมาตรฐานกฎเกณฑ์โดยตรง เราควรจะวางขั้นตอนเพื่อนำมาซึ่งมาตรฐาน และสร้างระบบ AI ที่จะมีแรงจูงใจในการทำตามขั้นตอนและนำมาตรฐานนั้นมาใช้
Augmentation คือการนำ AI ทีที่มีระบบแรงจูงใจที่ดีแล้ว และพัฒนาให้มันไปถึงขั้น Superintelligence
ไม่ว่าจะเป็นวิธีทางไหนมันก็จะมีข้อดีข้อเสียทั้งหมดและระดับความยากในการนำมาใช้ก็ไม่เท่ากัน และมันเป็นไปได้ที่จะผสมผสานหลายวิธีเข้าหากันเพื่อให้ได้ระบบการควบคุมที่เหมาะสม
อีกหนึ่งข้อเสนอในการสร้างข้อจำกัดให้ AI คือทำให้มันเป็นรูปแบบ Oracles ซึ่งเป็นระบบค้นหาคำตอบให้เราเท่านั้น หรือไม่ก็ให้มันเป็นรูปแบบ Tools-AI ซึ่งเป็นเพียงแค่เครื่องมือ เพื่อที่มันจะไม่สามารถสร้างเป้าหมายของมันเองได้
แต่มันก็ยังมีความเสี่ยงอยู่เบื้องหลัง และยังจะต้องมีการวิจัยเพิ่มเติมเพื่อหาว่าวิธีไหนจะปลอดภัยที่สุด
ปัญหาการสร้างค่านิยม Value-Loading Problem
มันคงเป็นไปได้ยากนะครับ ที่เราจะนึกถึงทุกๆสถานการณ์ที่ AI จะต้องพบเจอและกำหนดว่ามันจะต้องปฏิบัติอย่างไร
ผู้เขียนเห็นว่าการที่เราจะจำกัดความสามารถและแรงจูงใจของ AI อาจจะไม่ยั่งยืน
ในระยะยาวเราจะต้องแก้ปัญหาที่เรียกว่า Value-Loading Problem หรือปัญหาการโหลดค่านิยม ซึ่งเป็นการรวมค่านิยมที่สอดคล้องกับของมนุษย์ให้เข้าไปอยู่ในระบบ seed AI ตั้งแต่แรกเริ่ม
ปัญหาคือมันมีความซับซ้อนอย่างมาก ยกตัวอย่างเช่นถ้าเราต้องการสร้างระบบ AI ที่มีค่านิยม ‘happiness’ หรือความสุข สิ่งแรกคือเราจะต้องกำหนดความหมายของความสุขให้ได้ซะก่อน หลังจากนั้นแล้วเราก็จะต้องแปลความหมายนี้ออกมาเป็นรูปแบบโปรแกรมมิ่งโค้ด ซึ่งทั้งสองอย่างนี้ไม่ได้ทำกันง่ายๆ
เมื่อไหร่ที่เราสามารถโหลดค่านิยมให้กับ AI ได้แล้ว เราก็ยังจะต้องเผชิญหน้ากับอีก 1 ปัญหา คือเราควรจะเลือกค่านิยมไหนที่เหมาะสมให้กับ AI
ปัญหานี้สำคัญนะครับ เพราะว่าถ้า AI สามารถรวบรวมอำนาจได้ ค่านิยมที่มันมีอยู่จะบ่งบอกว่ามันจะให้ประโยชน์กับมนุษย์หรือไม่ ฉะนั้นเกณฑ์ของการเลือกค่านิยมก็เป็นสิ่งที่ต้องคำนึงถึงเช่นกัน
นักวิจัยด้าน AI นามว่า Eliezer Yudkowsky ได้เสนอความคิดที่เรียกว่า Coherent Extrapolated Volition ซึ่งแปลคร่าวๆก็คือ ”ความตั้งใจระยะยาวของมนุษย์ที่สอดคล้อง” ซึ่งเขาคิดว่านี่ควรจะเป็นค่านิยมและเป้าหมายของ AI
ถ้าจะให้เข้าใจความคิดนี้ง่ายๆนะครับ คือให้ลองจินตนาการว่าถ้ามนุษย์เราต้องการจะไปถึงศักยภาพที่แท้จริง เราควรจะมีค่านิยมอะไรบ้าง? และค่านิยมเหล่านี้ก็ควรจะเป็นค่านิยมที่เราควรปลูกฝังให้กับ AI ตั้งแต่ตอนริเริ่ม
ท้ายสุดนะครับ ไม่มีใครรู้ว่า AI จะไปถึงระดับ Superintelligence เมื่อไหร่ และเราไม่สามารถจะจินตนาการได้ว่าความสามารถของมันจะไปไกลถึงขนาดไหน
แทนที่เราจะคิดถึงแต่การพัฒนาความสามารถของมันอย่างเดียว เราควรจะคำนึงถึงภัยอันตรายที่มันอาจจะนำมามากกว่า ก่อนที่มันจะกลายเป็นอำนาจที่เราไม่สามารถต่อกรได้
วิธีที่ดีคือการร่วมมือกันระหว่างหลายหน่วยงานจากหลายประเทศ เพื่อที่จะเพิ่มโอกาสให้การพัฒนา AI เป็นไปอย่างมีความระมัดระวัง และให้แน่ใจว่ามันจะทำประโยชน์ให้กับมนุษยชาติและให้มันช่วยให้เราไปถึงศักยภาพที่แท้จริงของเราได้
หนังสือเล่มนี้เขียนมาตั้งแต่ปี 2014 แล้วนะครับ และอาจจะมีการพัฒนาในบางด้านไปแล้ว และก็ยังมีอีกบางส่วนของหนังสือที่ผมไม่ได้พูดถึงนะครับ ถ้ามีโอกาสก็แนะนำให้ทุกท่านไปอ่านกันด้วยนะครับ
ผมหวังว่าทุกคนจะได้รับประโยชน์จากคลิปนี้นะครับ
ถ้ามีอะไรผิดพลาดก็ขออภัยด้วยครับ
ถ้าคุณชอบการรีวิวหนังสือของผม ก็ฝากกด like subscribe กดกระดิ่ง และสนับสนุนช่องเพื่อให้ได้เดินหน้าต่อไปด้วยนะครับ
ผมขอให้ทุกคนมีความสุขมากๆนะครับ
แล้วพบกันใหม่คลิปหน้าครับขอบคุณและสวัสดีครับ
Pop BooksDD
—