มนุษย์ค้นพบอคติที่แฝงอยู่ใน AI คุณจะเชื่อใจมันได้มากแค่ไหน
เมื่อมนุษย์ค้นพบอคติที่แฝงอยู่ใน AI คุณจะเชื่อใจมันได้มากแค่ไหน ?
ระบบปัญญาประดิษฐ์ (AI) ที่มีความลำเอียงจะเป็นอันตรายต่อธุรกิจของคุณและสังคมหรือไม่?
เมื่อเราพูดคุยเกี่ยวกับปัญญาประดิษฐ์ที่ไม่น่าไว้วางใจ เราไม่ได้หมายถึงหุ่นยนต์ยักษ์ใหญ่ที่เป็นจอมเผด็จการ แต่หากมันเป็นเช่นนั้น มันก็คงจะไม่ใช่เร็วๆ นี้อย่างแน่นอน แต่ถึงอย่างไรก็ตามจากการรายงานข่าวที่ผ่านมา ได้สร้างความสงสัยเป็นอย่างมากเกี่ยวกับ AI ที่อาจจะมาพร้อมกับอคติที่ถูกปลูกฝังไว้ล่วงหน้า เนื่องจากเป็นเพราะอคติที่ว่านี้อาจเป็นส่วนหนึ่งของบุคลิกลักษณะ (Character)ของตัวมันเอง สำหรับตัวอย่างที่ได้รับการเปิดเผยเมื่อปีที่แล้ว นั่นก็คือ Amazonที่ต้องทำการยกเลิกการใช้เครื่องมือเพื่อสรรหาบุคลากร (Recruiting Tool) ที่มีการประมวลผลโดย AI หลังจากที่พบว่ามันมีปัญหาอคติทางเพศในชุดคำสั่งของAI
เรียกได้ว่ามันเป็นผลสืบเนื่องมาจากความคิดที่สุดโต่งของพวกเขา และบทสรุปของเสรีภาพส่วนบุคคล (Personal Freedom), การทำลายมาตรฐานการครองชีพ (Living Standard) และที่จะแย่ไปกว่านั้นก็คือ ความไม่สมดุลของ Digital Quanta ที่เกี่ยวกับความยุติธรรมนั้นไม่สามารถพิสูจน์ได้
แต่นั่นคือสิ่งที่กำลังจะเกิดขึ้นจริงๆ ใช่หรือไม่? หรือหากให้พูดกันอย่างตรงไปตรงมาเลยว่าพวกเราที่มีมุมมองทางด้านประวัติศาสตร์อยู่บ้าง และมีความเข้าใจบางอย่างเกี่ยวกับ "AI" ว่าจริงๆ แล้วมันคืออะไรกันแน่? เพราะส่วนใหญ่แล้วก็ไม่ได้เชื่อในเรื่องดังกล่าว ที่อาจจะเป็นเรื่องตื่นตระหนกที่มาจากการปะติดปะต่อความคิดที่แทบจะยังไม่ได้รับการยืนยันจากห้องปฏิบัติการวิจัย
ลองมาดูตัวอย่างอื่นที่เราอาจจะรู้จักกันดี นั่นก็คือ Stephen Brobst, CTO ด้านการจัดเก็บและผู้เชี่ยวชาญด้านการวิเคราะห์ของ Teradataซึ่งเป็นหนึ่งในผู้ที่ชี้ให้เห็นว่าวิธีการที่สหรัฐทดลองใช้Amazon ในการจัดส่งสินค้าในวันเดียวกัน เมื่อปี 2015ที่เป็นการศึกษาแบบคลาสสิกในเรื่องการรับรู้อคติของ AI ซึ่งมันง่ายที่จะดูออกว่าทำไมผลลัพธ์จึงเป็นเช่นนั้น โดยเรื่องมีอยู่ว่า ขณะที่บริการใหม่ถูกทดลองครั้งแรกในเขตชานเมืองที่กำลังมีการขยายตัวของแอตแลนตา ดังนั้น อัลกอริทึมจึงถูกนำมาใช้เพื่อกำหนดว่าพื้นที่ใดบ้างที่จะครอบคลุมในการทดลอง แผนที่ที่ได้จากการวิจัยนั้นเกือบจะสอดคล้องกันจนน่าประหลาดเพราะมันเป็นในส่วนของพื้นที่ที่คนส่วนใหญ่เป็นคนผิวขาว ขณะที่รหัสไปรษณีย์ของกลุ่มคนผิวดำส่วนใหญ่ไม่ได้รับการพิจารณา
แทบจะไม่ต้องบอกเลยว่าเกณฑ์การคัดเลือกของAmazon นั้น ไม่ได้ถูกยกเว้นเพียงเพราะว่าพวกเขาเป็นคนผิวดำ แต่นั่นเป็นเพราะคอมพิวเตอร์ตัดสินใจบนพื้นฐานการซื้อเพียงอย่างเดียว อย่างไรก็ตามจากการที่ Brobstตั้งข้อสังเกต เขาพบว่า ผลที่เกิดขึ้นนั้นแยกไม่ออกจากการเหยียดเชื้อชาติ ดังนั้นมันจึงทำให้เกิดคำถามขึ้นมาว่า ในกรณีที่AI Trainerเลือกเพราะพฤติกรรมการซื้อที่สัมพันธ์กับเชื้อชาติและสถานภาพทางสังคม(Social Status)ของพวกเขา สิ่งที่พวกเขาทำมันจะเป็นการเหยียดสีผิวหรือไม่?
ผู้อ่านบางส่วนที่มีความคุ้นเคยกับAI อยู่บ้าง อาจจะเริ่มตื่นตัวกันบ้างแล้วในระยะนี้ ดังนั้นขอให้ย้อนกลับไปและตรวจสอบสภาวการณ์ปัจจุบัน จุดแรกที่จะทำให้เข้าใจได้ก็คือ "ปัญญาประดิษฐ์" ถูกระบุว่าไม่ดี และที่สำคัญไม่น้อยไปกว่าอย่างอื่นก็คือ มันให้ผลลัพธ์ที่ค่อนข้างคลุมเครือ นั่นอาจเป็นเพราะมันมีสถาปัตยกรรมที่แตกต่างอย่างน้อยสองส่วนภายใต้แนวคิดหลัก (General Idea) ของ AI นั่นก็คือ ระบบผู้ชำนาญการ (Expert Systems) ซึ่งเป็นซอฟต์แวร์คอมพิวเตอร์ที่ช่วยในการหาคำตอบเพื่ออธิบายความไม่ชัดเจน และส่วนที่สองก็คือการเรียนรู้ของเครื่อง (Machine Learning) ซึ่งตามปกติแล้วการรายงานจะเป็นการผสมผสานทั้งสองส่วนอย่างอิสระและมองข้ามข้อเท็จจริงที่ว่า ทั้งสองอย่างนั้นไม่ถือว่าเป็น เชาวน์ ปัญญา (Intelligence) ในแง่ที่เป็นความรู้สึกของคนส่วนใหญ่
ในทางตรงกันข้ามAI ส่วนใหญ่ค่อนข้างที่จะถูกกำหนดไว้อย่างแน่นอนอยู่แล้ว สำหรับโครงการที่มีการระบุว่า "AI" แต่บ่อยครั้งที่มันไม่ได้ทำอะไรมากไปกว่า การให้ผลลัพธ์อย่างรวดเร็ว ซึ่งนั่นก็เป็นหลักการที่ถูกกำหนดไว้ล่วงหน้าแล้ว โดยที่ไม่ต้องใช้วิจารณญาณและไม่ต้องพยายามคิดให้ลึกซึ้งแต่อย่างใด
แต่มันอาจจะเป็นไปไม่ได้สำหรับบุคคลภายนอกที่จะยอมรับว่านั่นคือสิ่งที่กำลังเกิดขึ้น ซึ่งอันที่จริงแล้วหลายๆ คนอาจจะชอบแนวคิดของ AI โดยส่วนหนึ่งอาจเป็นเพราะมันช่วยให้พวกเขารับผิดชอบในการติดสินใจที่ทำได้ยาก หรือพวกเขาเองสามารถยกให้เป็นหน้าที่ของ AI สำหรับการตัดสินใจที่จะนำไปสู่ข้อขัดแย้ง (Controversial Decisions)
ในความเป็นจริง เมื่อ "AI" ได้รับการตำหนิ ปัญหาที่แท้จริงนั้นมักจะเกี่ยวข้องกับข้อมูลเฉพาะของอัลกอริทึม (Algorithm) หรืออินพุต (Input) ซึ่งบางครั้งมันอาจรู้สึกดีที่จะวาดภาพผลลัพธ์ที่ไม่เหมาะสมให้ออกมาเป็นภาพที่สะท้อนความล้มเหลวทางศีลธรรมของสมาชิกที่เป็นคณะกรรมการของบริษัท แต่ดูเหมือนว่ามันจะเป็นการกระทำที่ไม่เหมาะสม
แต่น่าเสียดายที่ ในวัฒนธรรมที่แทบจะไม่มีใครรู้สึกว่าจำเป็นที่จะต้องแยกแยะความแตกต่างระหว่าง AI ประเภทต่างๆ หรือเพื่อพิสูจน์ว่ากระบวนการที่กำหนดไว้นั้น นับรวมเป็นผลลัพธ์ที่มาจาก AI ทั้งหมดได้อย่างไร และคงเป็นเรื่องที่ยากมากๆ ที่จะหว่านล้อมผู้ร้องเรียนว่า ปัญญาประดิษฐ์ของคุณจะไม่รับผิดชอบต่อสิ่งที่ดูเหมือนว่าจะมีอคติ (Prejudices) ซึ่งจากตัวอย่างที่เราเคยสังเกตเห็นธรรมชาติของมนุษย์ก็คือ การแกล้งทำเป็นมองไม่เห็นกับสิ่งที่เกิดขึ้นและโยนความผิดให้กับเครื่องจักรแทนที่จะเป็นบุคลากร
จริงๆ แล้วใครเป็นคนกล่าวหา ?
หากคุณกลับไปดูคำตอบที่มีข้อมูลเกี่ยวกับอคติ คุณจะพบบางอย่างที่น่าสนใจ ยกตัวอย่างเช่น IBM ได้ผลิตวิดีโอและสิ่งพิมพ์จำนวนมากเกี่ยวกับอันตรายที่อาจเกิดขึ้นจากอคติที่แฝงอยู่ในระบบAI โดยมุ่งให้ความสนใจไปที่แนวคิด เช่น ความยุติธรรมและความไว้วางใจ และสร้างความมั่นใจว่าปัญญาประดิษฐ์จะทำหน้าที่ "สอดคล้องกับค่านิยมของเรา" แต่ท้ายที่สุดแล้วยักษ์ใหญ่ด้านเทคโนโลยีก็ต้องออกมายอมรับว่า ในขณะที่สิ่งต่างๆ ยังคงยืนหยัด แต่อคติของมนุษย์มีแนวโน้มที่จะหาทางเข้าสู่อัลกอริธึม AI เพราะฉะนั้น ในฐานะผู้มีประสบการณ์ด้านการจัดการโครงการ (Programme Manager) ของ Rattan Whig ที่ถูกกล่าวถึงในบล็อกโพสต์ที่หลากหลาย เราจึงพูดได้ว่า "การเรียนรู้ด้วยตนเอง (Machine-learning) ของ AI ก็เปรียบได้ก็กระดานที่ว่างเปล่า ที่รอแค่ให้เราป้อนข้อมูลเข้าไปเท่านั้น ซึ่งมันก็คงจะเป็นเรื่องที่ห้ามไม่ได้ที่จะไม่ให้มันสะท้อนรูปแบบองค์ความรู้ (Cognitive Pattern) ของผู้ฝึกสอนของมัน"
และขอเคลียร์ให้ชัดๆ เลยว่า 99% ของเวลา เราเองก็ยังไม่ได้แม้แต่จะจัดการกับกระดานที่ว่างเปล่านั้นเลย ซึ่งจะเห็นได้ว่ามีเพียงไม่กี่ธุรกิจที่ใช้ประโยชน์จาก AI ที่ได้รับการฝึกฝนในกล่องดำ (Black Box) โดยเริ่มต้นจากสถานะของกระดานที่ว่างเปล่า ที่รอแค่ให้เราป้อนข้อมูลเข้าไปเท่านั้น และอาจเป็นไปได้ว่าระบบต่างๆเหล่านั้นอาจจะได้รับการฝึกฝนให้สังเกตเห็นข้อบกพร่องในกระบวนการผลิต โดยการจ้องมองไปที่วิดีโอหลายล้านเฟรมในทุกๆ วัน และยังต้องฝึกซ้อมด้านสติปัญญา เช่นเดียวกับหนอนตัวกลมที่สามารถดำรงชีวิตอยู่ได้ โดยใช้ระบบประสาทที่เป็นร่างแหที่ประกอบไปด้วยเซลล์ประสาทที่ต่ำกว่า 100 เซลล์ ในฐานะ "สมอง"
แต่สิ่งที่ระบบเหล่านั้นทำได้มากกว่าหนอนตัวกลมก็คือ ความสามารถในการมองเห็นพฤติกรรมด้านการเงินที่ไม่ดีในแฟ้มประวัติของลูกค้า หรือแม้แต่การแยกแยะหุ้นที่มีประสิทธิภาพต่ำ นั่นคือขอบเขตด้านความรู้ของ AI อีกแบบหนึ่ง ที่จะถูกนำมาประกอบเข้าด้วยกันอย่างพิถีพิถัน และมีรอบของการพัฒนาที่ยาวนานกว่า โดยมนุษย์หัวโบราณที่ประมวลความรู้ของพวกเขาเอง ดังนั้นจึงไม่น่าแปลกใจเลยว่า ความเข้าใจผิด (Misapprehensions) และอคติจะได้รับการหล่อหลอมรวมเข้าไปในกระบวนการ
เรื่องที่ไกลเกินเอื้อม
ฉันได้พยายามอย่างเต็มที่เพื่อที่จะเค้นเอาข้อผิดพลาดทั่วๆ ไปที่เกิดขึ้นกับผู้ที่มีความรู้เกี่ยวกับ AI เพื่อเขียนลงในบทสรุปสั้นๆ ซึ่งอย่างน้อยก็ให้เกียรติฉันในการจัดการกับเรื่องนี้ แต่มันยังไม่หมดแค่นี้นะ เพราะฉันยังต้องการที่พูดคุยเกี่ยวกับเรื่องที่เกินกำลังความสามารถที่ฉันจะจัดการเพียงคนเดียวได้
สิ่งที่ฉันกำลังพูดถึงก็คือ ช่องว่างขนาดใหญ่ที่อยู่ระหว่างวิธีการที่เทคโนโลยี AI แสดงให้เห็นและสิ่งที่เกิดขึ้นจริง ดังนั้น ในกรณีที่เราต้องการที่จะให้การตำหนิ AI นั้น มีความหมายต่อสิ่งต่างๆ เราต้องพิสูจน์ว่ามันเข้าใจอยู่บ้างบางส่วนเกี่ยวกับความหมายพื้นฐานของข้อมูลที่ผ่านการกลั่นกรอง ให้ลองนึกถึงระบบโฆษณาที่ตรวจสอบสิ่งที่คุณกำลังค้นหา ซึ่งมันสามารถแสดงโฆษณาที่ตรงกับคำค้นเหล่านั้นได้ นั่นอาจดูเหมือนว่ามันฉลาด แต่จริงๆ แล้วมันเป็นเพียงแค่การจับคู่โทเค็น (Token Matching) ที่ออกจะดูตลกๆ เสียด้วยซ้ำ ซึ่งคอมพิวเตอร์เองก็คงไม่รู้หรอกว่าคำว่า "rugby kit" หรือ "ticket to Swansea" จริงๆ แล้วหมายถึงอะไร
วันหนึ่งเราจะไปยืนอยู่ตรงจุดนั้น แต่มันอาจจะเป็นเส้นทางที่ยาวไกล และก็คงไม่ใช่ถนนที่โรยด้วยกลีบกุหลาบแน่ๆ ดังนั้น การเปิดตัวซอฟต์แวร์แบบ Incremental ซึ่งเป็นการค่อยๆ พัฒนาเพิ่มเข้าไป จากนั้นจึงค่อยๆ รวมระบบย่อยเข้าด้วยกัน ก็คงไม่ต่างกับความก้าวหน้าที่จะมาเขย่าโลกได้ มันจะต้องมีการพัฒนาปัจจัยพื้นฐานที่มากกว่าหนึ่งอย่างแล้วค่อยๆ นำมารวมเข้าด้วยกัน
โปรดจำไว้เสมอว่า ยังมีอะไรอีกมากมายที่จะต้อง "ทำความเข้าใจ" มากกว่าแค่ความสามารถในการค้นหาคำจากฐานข้อมูล และระบุความหมายแฝง (Connotation) และความสัมพันธ์ของคำเหล่านั้น เพราะถ้าเราต้องการให้ปัญญาประดิษฐ์ (Artificial Intelligence) ปราศจากอคติอย่างแท้จริง เราต้องสามารถรับรู้และลบล้างอคติในอินพุตของมันได้ อย่างไรก็ตามการตรวจจับบางสิ่งที่เข้าใจยากและละเอียดอ่อน จะต้องใช้เครื่องไม้เครื่องมือที่ทำงานด้วยสัญลักษณ์เดียวกับสมองของมนุษย์ นั่นถือได้ว่าเป็นข้อเสนอที่ดีและทำได้อย่างรวดเร็วกว่า แต่ในตอนนี้ก็ยังไม่มีอะไรเหมือนกับที่คิดไว้สักอย่าง พูดตามตรงเลยว่า ฉันเองก็ยังแอบสงสัยอยู่ว่า เราจะทันได้เห็นสิ่งเหล่านี้ก่อนที่เราจะเอาชนะภาวะโลกร้อนได้รึเปล่าก็ไม่รู้?
แล้วคุณควรทำอย่างไรกับเรื่องนี้ ?
ทั้งหมดนี้อาจดูเป็นนามธรรมและดูเป็นวิชาการเอามากๆ แต่สำหรับคุณในฐานะนักธุรกิจ "ผู้ทรงอิทธิพล" นับว่าเป็นข่าวดีจริงๆ นั่นเป็นเพราะข้อสรุปสุดท้ายก็คือ ปัญหาอคตินั้นง่ายกว่าและยังเข้าใจได้ง่ายกว่ารายงานข่าวของผู้ตื่นตระหนกที่อาจจะทำให้คุณหลงเชื่อเสียอีก ดังนั้น คุณจึงไม่ต้องกังวลเลยว่าอะไรจะเกิดขึ้นภายในจิตใจแบบดิจิตอลที่เราเองก็ไม่อาจหยั่งรู้ได้ของAI ที่ชั่วร้าย
ในความเป็นจริงแล้วปัญหาที่เกิดขึ้นกับโปรแกรมเมอร์และแหล่งที่มาของสิ่งต่างๆ เช่น Keyword ของ Libraryคุณเองก็สามารถที่จะแสดงความคิดเห็นและมีอิทธิพลโดยตรงเกี่ยวกับสิ่งนี้ ในกรณีที่คุณรับรู้ว่าพวกเขากำลังชี้นำคุณไปในทิศทางที่ผิด ซึ่งก็ไม่ได้แปลว่าเราสนับสนุนให้คุณหมกมุ่นอยู่กับ AI ที่มีอคติ แต่ไม่ว่าอย่างไรก็ตามธุรกิจต่างๆ ก็ยังเป็นเครื่องมือในการสร้างรายได้ และความเอนเอียงโดยธรรมชาติของพวกเขานั้นก็ไม่ได้รับการยกเว้น แม้แต่ภาคการตลาด
แต่โชคไม่ดีที่ความคิดที่ก่อให้เกิดความสับสนวุ่นวายของAI ที่ชั่วร้ายนั้น กลับทำให้เกิดการใช้ประโยชน์จากหัวข้อข่าวดังกล่าว ซึ่งก็หมายความว่า ขณะที่อุบัติการณ์ของอคติถูกค้นพบ การคัดค้านและการล่วงละเมิดกลับแพร่กระจายได้เร็วกว่าการแก้ปัญหาที่สามารถนำไปสู่การลองผิดลองถูกและปรับใช้อย่างง่ายดาย อย่างไรก็ตามสิ่งที่แพร่กระจายออกไปนั้นก็ไม่ได้ช่วยใครในการให้ข้อมูลและตัวเลือกที่เป็นประโยชน์เกี่ยวกับประเภทของAI หรือฐานข้อมูลการเรียนรู้ที่พวกเขาควรจะเลือกใช้ หรือมันก็ไม่ได้ให้ข้อมูลว่าขั้นตอนใดที่พวกเขาควรทำเพื่อปรับปรุงความถูกต้องแม่นยำและความมีประโยชน์ของมัน
บางทีนี่อาจจะเป็นวิธีการสำหรับผู้ประท้วงที่คิดจะเปลี่ยนผู้ตรวจสอบ (Auditor) ก็เป็นได้ ซึ่งถ้าเราสามารถทำให้สื่อหยุดทำให้ผู้คนสับสนและฟุ้งซ่านกันความคิดของAI ได้อย่างช้าๆ ผู้ที่แสดงความไม่พอใจต่อปัญหาของ AI ที่ดูเหมือนว่าจะลำเอียง พวกเขาอาจเริ่มตระหนักว่าผลลัพธ์ที่ผิดปกตินั้นมีต้นสายปลายเหตุมาจากอะไร และพวกเขาก็ยังสามารถที่จะกลายเป็นส่วนหนึ่งของการแก้ปัญหา โดยอาจจะเป็นการให้ช่วยเหลือทั้งในด้านการเป็นผู้ค้นพบและจัดทำเอกสารการยกตัวอย่างเกี่ยวกับการเขียนโปรแกรมที่ไม่ถูกต้องหรือแม้แต่ข้อมูลที่ไม่เหมาะสม ซึ่งวิธีการทั้งหมดที่กล่าวมานี้ พวกเราทุกคนทั้งในภาคธุรกิจและสังคมโดยรวมก็จะได้รับประโยชน์ร่วมกัน
สงวนลิขสิทธิ์ Copyright © 2024 บริษัท ควิกเซิร์ฟ โปรไวเดอร์ จำกัด
124/124 หมู่ที่ 2 ถนนนครอินทร์ ตำบลบางสีทอง อำเภอบางกรวย จังหวัดนนทบุรี 11130
โทรศัพท์ 0-2496-1234 โทรสาร 0-2496-1001