
การทำงานที่ Leverhulme Center for the Future of Intelligence มีเป้าหมายเพื่อป้องกันการฝังลึกของความไม่เท่าเทียมกันที่มีอยู่ – จากเพศสู่ชนชั้นและเชื้อชาติ – ในเทคโนโลยีที่เกิดขึ้นใหม่ ปัญญาประดิษฐ์กำลังเปลี่ยนแปลงสังคมเนื่องจากอัลกอริธึมกำหนดการเข้าถึงงานและการประกันภัย ความยุติธรรม การรักษาพยาบาล ตลอดจนปฏิสัมพันธ์ในชีวิตประจำวันของเรากับเพื่อนและครอบครัวมากขึ้น
ในขณะที่เทคโนโลยีเหล่านี้ก้าวไปข้างหน้า เราเริ่มเห็นผลลัพธ์ทางสังคมที่ไม่ได้ตั้งใจ: อัลกอริธึมที่ส่งเสริมทุกอย่างตั้งแต่อคติทางเชื้อชาติในการดูแลสุขภาพไปจนถึงข้อมูลที่ผิดซึ่งทำลายศรัทธาในระบอบประชาธิปไตย
นักวิจัยจาก ศูนย์ Leverhulme Center for the Future of Intelligence (LCFI) ของมหาวิทยาลัยเคมบริดจ์ ได้รับรางวัลเกือบสองล้านยูโรเพื่อสร้างความเข้าใจที่ดีขึ้นว่า AI สามารถบ่อนทำลาย “ค่านิยมหลักของมนุษย์” ได้อย่างไร
เงินช่วยเหลือดังกล่าวจะทำให้ LCFI และพันธมิตรสามารถทำงานร่วมกับอุตสาหกรรม AI เพื่อพัฒนาหลักการออกแบบที่ต่อต้านการเลือกปฏิบัติ ซึ่งทำให้จริยธรรมเป็นหัวใจสำคัญของความก้าวหน้าทางเทคโนโลยี
ทีมงาน LCFI จะสร้างชุดเครื่องมือและการฝึกอบรมสำหรับนักพัฒนา AI เพื่อป้องกันไม่ให้ความไม่เท่าเทียมกันของโครงสร้างที่มีอยู่ – จากเพศสู่ชั้นเรียนและเชื้อชาติ – จากการถูกฝังอยู่ในเทคโนโลยีที่เกิดขึ้นใหม่ และส่งความอยุติธรรมทางสังคมดังกล่าวไปยังไฮเปอร์ไดรฟ์
การบริจาคจากมูลนิธิการกุศลของเยอรมัน Stiftung Mercator เป็นส่วนหนึ่งของแพคเกจมูลค่าเกือบ 4 ล้านยูโร ที่ทีม Cambridge ซึ่งรวมถึงนักสังคมศาสตร์และนักปรัชญา ตลอดจนนักออกแบบเทคโนโลยีจะทำงานร่วมกับมหาวิทยาลัยบอนน์
โครงการวิจัยใหม่ “Desirable Digitalisation: Rethinking AI for Just and Sustainable Futures” เกิดขึ้นในขณะที่คณะกรรมาธิการยุโรปเจรจาเรื่อง Artificial Intelligence Act ซึ่งมีความทะเยอทะยานเพื่อให้แน่ใจว่า AI จะ “น่าเชื่อถือ” และ “มีมนุษย์เป็นศูนย์กลาง” มากขึ้น พระราชบัญญัติดังกล่าวจะกำหนดให้ระบบ AI ได้รับการประเมินผลกระทบต่อสิทธิและค่านิยมขั้นพื้นฐาน
ดร.สตีเฟน เคฟ ผู้อำนวยการ LCFI กล่าวว่า “ช่องว่างความรู้มีมากมาย” “ปัจจุบันไม่มีใครรู้ว่าผลกระทบของระบบใหม่เหล่านี้จะเป็นอย่างไรต่อค่านิยมหลัก ตั้งแต่สิทธิในระบอบประชาธิปไตยไปจนถึงสิทธิของชนกลุ่มน้อย หรือมาตรการใดที่จะช่วยจัดการกับภัยคุกคามดังกล่าวได้”
“การเข้าใจถึงผลกระทบที่อาจเกิดขึ้นของอัลกอริธึมที่มีต่อศักดิ์ศรีความเป็นมนุษย์จะหมายถึงการก้าวข้ามรหัสและดึงเอาบทเรียนจากประวัติศาสตร์และรัฐศาสตร์” เคฟกล่าว
LCFI กลายเป็นหัวข้อข่าวในปีที่แล้วเมื่อเปิดตัว โปรแกรม Masters โปรแกรม เดียวในโลกที่ อุทิศให้กับการสอนจริยธรรม AI ให้กับมืออาชีพในอุตสาหกรรม ทุนนี้จะอนุญาตให้พัฒนาสายงานวิจัยใหม่ๆ เช่น การตรวจสอบศักดิ์ศรีความเป็นมนุษย์ใน “ยุคดิจิทัล” “เทคโนโลยี AI เปิดประตูทิ้งไว้สำหรับวิทยาศาสตร์เทียมที่อันตรายและน่าอดสู” Cave กล่าว
เขาชี้ไปที่ซอฟต์แวร์จดจำใบหน้าที่อ้างว่าระบุ “ใบหน้าอาชญากร” การโต้เถียงคำกล่าวอ้างดังกล่าวคล้ายกับแนวคิดเกี่ยวกับวรรณะวิทยาแบบวิกตอเรีย ซึ่งลักษณะของบุคคลอาจถูกตรวจพบโดยรูปร่างของกะโหลกศีรษะ และการเหยียดเชื้อชาติทางวิทยาศาสตร์ที่เกี่ยวข้อง
ดร.กันตา ดิฮาล ซึ่งจะร่วมเป็นผู้นำโครงการนี้ คือการตรวจสอบว่าเสียงของใครเป็นผู้กำหนดวิสัยทัศน์ของสังคมในอนาคตด้วยปัญญาประดิษฐ์ “ปัจจุบัน ความคิดของเราเกี่ยวกับ AI ทั่วโลกถูกเสกโดยฮอลลีวูดและชนชั้นสูงเล็กๆ ที่ร่ำรวย” เธอกล่าว
ทีม LCFI จะประกอบด้วยนักวิจัยของเคมบริดจ์ Dr Kerry Mackereth และ Dr Eleanor Drage ซึ่งเป็นเจ้าภาพร่วมของพอดคาสต์ “ The Good Robot ” ซึ่งสำรวจว่าเราจะมีเทคโนโลยีที่ ‘ดี’ ได้หรือไม่ และเหตุใดสตรีนิยมจึงมีความสำคัญในพื้นที่เทคโนโลยี
Mackereth จะทำงานในโครงการที่สำรวจความสัมพันธ์ระหว่างการต่อต้านการเหยียดเชื้อชาติในเอเชียกับ AI ในขณะที่ Drage จะพิจารณาการใช้ AI สำหรับการสรรหาบุคลากรและการจัดการแรงงาน
“เครื่องมือ AI กำลังจะปฏิวัติการจ้างงานและกำหนดอนาคตของการทำงานในศตวรรษที่ 21 ตอนนี้คนงานหลายล้านคนได้สัมผัสกับเครื่องมือเหล่านี้แล้ว เราต้องตรวจสอบให้แน่ใจว่าพวกเขาให้ความยุติธรรมกับผู้สมัครแต่ละคน และอย่าขยายเวลาการหลอกลวงทางเชื้อชาติของแนวปฏิบัติในการจ้างงานในศตวรรษที่ 19” Drage กล่าว
“เป็นเรื่องดีที่รัฐบาลกำลังดำเนินการเพื่อให้แน่ใจว่า AI ได้รับการพัฒนาอย่างมีความรับผิดชอบ” Cave กล่าว “แต่การออกกฎหมายจะไม่มีความหมายมากนักเว้นแต่เราจะเข้าใจจริงๆ ว่าเทคโนโลยีเหล่านี้มีผลกระทบต่อสิทธิมนุษยชนและค่านิยมขั้นพื้นฐานอย่างไร”