รูปลักษณ์แรกที่ผู้ใช้ Twitter ได้รับจากทวีตอาจเป็นอคติทางเชื้อชาติโดยไม่ได้ตั้งใจ
Twitter กล่าวเมื่อวันอาทิตย์ว่าจะตรวจสอบว่าเครือข่ายประสาทที่เลือกส่วนใดของภาพที่จะแสดงในตัวอย่างภาพถ่ายที่แสดงใบหน้าของคนขาวมากกว่าคนผิวดำ
ปัญหาเริ่มต้นเมื่อช่วงสุดสัปดาห์ที่ผ่านมาเมื่อผู้ใช้ Twitter โพสต์ตัวอย่างมากมายว่าในรูปภาพที่มีรูปคนผิวดำและรูปคนผิวขาวนั้นภาพตัวอย่างของ Twitter ในไทม์ไลน์จะแสดงคนผิวขาวบ่อยขึ้น
กำลังทดลองสุดสยอง …
อัลกอริทึมของ Twitter จะเลือกข้อใด: Mitch McConnell หรือ Barack Obama pic.twitter.com/bR1GRyCkia
– Tony“ Abolish (Pol) ICE” Arcieri 🦀 (@bascule) 19 กันยายน 2020
การทดสอบสาธารณะได้รับความสนใจจาก Twitter – และตอนนี้ บริษัท กำลังดำเนินการ
“ทีมของเราทำการทดสอบความลำเอียงก่อนที่จะส่งแบบจำลองและไม่พบหลักฐานว่ามีอคติทางเชื้อชาติหรือเพศในการทดสอบของเรา” Liz Kelly สมาชิกทีมสื่อสารของ Twitter กล่าวกับ Mashable “แต่จากตัวอย่างเหล่านี้เห็นได้ชัดว่าเรามีการวิเคราะห์เพิ่มเติมที่ต้องทำเรากำลังตรวจสอบเรื่องนี้และจะแบ่งปันสิ่งที่เราเรียนรู้และสิ่งที่เราทำต่อไป”
Dantley Davis ประธานเจ้าหน้าที่ฝ่ายออกแบบของ Twitter และประธานเจ้าหน้าที่ฝ่ายเทคโนโลยี Parag Agrawal ยังพูดใน Twitter ว่าพวกเขากำลัง “ตรวจสอบ” โครงข่ายประสาทเทียม
นี่เป็นคำถามที่สำคัญมาก เพื่อแก้ไขปัญหานี้เราได้ทำการวิเคราะห์โมเดลของเราเมื่อเราจัดส่ง แต่ต้องการการปรับปรุงอย่างต่อเนื่อง
รักการทดสอบที่เปิดเผยเปิดเผยและเข้มงวด – และกระตือรือร้นที่จะเรียนรู้จากสิ่งนี้ https://t.co/E8Y71qSLXa
– Parag Agrawal (@paraga) 20 กันยายน 2020
นี่เป็นอีกตัวอย่างหนึ่งของสิ่งที่ฉันได้ทดลอง ไม่ใช่การทดสอบทางวิทยาศาสตร์เนื่องจากเป็นตัวอย่างแยก แต่ชี้ไปที่ตัวแปรบางอย่างที่เราต้องพิจารณา ตอนนี้ทั้งสองคนมีชุดสูทเหมือนกันและฉันก็เอามือปิด เรายังคงตรวจสอบ NN pic.twitter.com/06BhFgDkyA
– Dantley (@dantley) 20 กันยายน 2020
บทสนทนาเริ่มต้นเมื่อผู้ใช้ Twitter รายหนึ่งโพสต์เกี่ยวกับอคติทางเชื้อชาติในการตรวจจับใบหน้าของ Zoom เขาสังเกตเห็นว่าภาพเคียงข้างกันของเขา (ชายผิวขาว) และเพื่อนร่วมงานผิวดำของเขาแสดงใบหน้าของเขาซ้ำ ๆ ในการดูตัวอย่าง
Geez … เดาได้ ไหม ว่าทำไม @Twitter ผิดนัดแสดงเฉพาะด้านขวาของภาพบนมือถือ? pic.twitter.com/UYL7N3XG9k
– Colin Madland (@colinmadland) 19 กันยายน 2020
หลังจากผู้ใช้หลายคน เข้าร่วมการทดสอบ ผู้ใช้รายหนึ่งยังได้แสดงให้เห็นว่าการชอบใบหน้าที่เบากว่านั้นเป็นอย่างไรกับตัวละครจาก The Simpsons
ฉันสงสัยว่า Twitter ทำสิ่งนี้กับตัวละครด้วยหรือเปล่า
เลนนี่คาร์ล pic.twitter.com/fmJMWkkYEf
– Jordan Simonovski (@_jsimonovski) 20 กันยายน 2020
คำสัญญาของ Twitter ในการตรวจสอบเป็นสิ่งที่น่ายินดี แต่ผู้ใช้ Twitter ควรดูการวิเคราะห์ด้วยเกลือเม็ดหนึ่ง เป็นปัญหาในการอ้างเหตุแห่งความลำเอียงจากตัวอย่างจำนวนหนึ่ง ในการประเมินอคติอย่างแท้จริงนักวิจัยจำเป็นต้องมีขนาดตัวอย่างที่ใหญ่และมีหลายตัวอย่างภายใต้สถานการณ์ที่หลากหลาย
สิ่งอื่นใดคือการอ้างอคติโดยเกร็ดเล็กเกร็ดน้อย – สิ่งที่พวกอนุรักษ์นิยมทำเพื่อ อ้างอคติต่อต้านอนุรักษ์นิยม บนโซเชียลมีเดีย ข้อโต้แย้งประเภทนี้อาจเป็นอันตรายได้เพราะโดยปกติแล้วผู้คนสามารถหาตัวอย่างหนึ่งหรือสองตัวอย่างของสิ่งใดสิ่งหนึ่งเพื่อพิสูจน์ประเด็นซึ่งทำลายอำนาจในการวิเคราะห์อย่างเข้มงวด
นั่นไม่ได้หมายความว่าคำถามเกี่ยวกับการแสดงตัวอย่างไม่คุ้มค่าที่จะพิจารณาเนื่องจากอาจเป็นตัวอย่างของ อคติเชิงอัลกอริทึม : เมื่อระบบอัตโนมัติสะท้อนอคติของผู้ผลิตที่เป็นมนุษย์หรือทำการตัดสินใจที่มีผลกระทบที่เอนเอียง
ดูเพิ่มเติม: ผู้คนกำลังต่อสู้กับอัลกอริทึมเพื่ออนาคตที่ยุติธรรมและเท่าเทียมกันมากขึ้น คุณก็ทำได้เช่นกัน
ในปี 2018 Twitter เผยแพร่ บล็อกโพสต์ ที่อธิบายว่ามันใช้เครือข่ายประสาทเทียมในการตัดสินใจดูตัวอย่างภาพถ่ายได้อย่างไร ปัจจัยหนึ่งที่ทำให้ระบบเลือกส่วนหนึ่งของภาพคือระดับคอนทราสต์ที่สูงขึ้น สิ่งนี้สามารถอธิบายสาเหตุที่ระบบดูเหมือนว่าชอบใบหน้าขาว การตัดสินใจใช้คอนทราสต์เป็นปัจจัยกำหนดครั้งนี้อาจไม่ได้มีเจตนาเหยียดผิว แต่การแสดงใบหน้าขาวบ่อยกว่าคนผิวดำนั้นเป็นผลลัพธ์ที่เอนเอียง
ยัง มีคำถาม ว่าตัวอย่างเล็ก ๆ น้อย ๆ เหล่านี้สะท้อนถึงปัญหาเชิงระบบหรือไม่ แต่การตอบสนองต่อนักสืบ Twitter ด้วยความขอบคุณและการกระทำเป็นจุดเริ่มต้นที่ดีไม่ว่าจะเกิดอะไรขึ้น
นี่เป็นการค้นพบที่น่าสนใจและเราจะเจาะลึกปัญหาอื่น ๆ เกี่ยวกับโมเดล ขอบคุณคำติชมจริงๆ
– Dantley (@dantley) 19 กันยายน 2020
ติดตาม Mashable SEA บน Facebook , Twitter , Instagram และ YouTube
ที่มา: Mashable