in

Twitter เพื่อตรวจสอบอคติทางเชื้อชาติที่ชัดเจนในตัวอย่างภาพถ่าย

รูปลักษณ์แรกที่ผู้ใช้ Twitter ได้รับจากทวีตอาจเป็นอคติทางเชื้อชาติโดยไม่ได้ตั้งใจ

Twitter กล่าวเมื่อวันอาทิตย์ว่าจะตรวจสอบว่าเครือข่ายประสาทที่เลือกส่วนใดของภาพที่จะแสดงในตัวอย่างภาพถ่ายที่แสดงใบหน้าของคนขาวมากกว่าคนผิวดำ

ปัญหาเริ่มต้นเมื่อช่วงสุดสัปดาห์ที่ผ่านมาเมื่อผู้ใช้ Twitter โพสต์ตัวอย่างมากมายว่าในรูปภาพที่มีรูปคนผิวดำและรูปคนผิวขาวนั้นภาพตัวอย่างของ Twitter ในไทม์ไลน์จะแสดงคนผิวขาวบ่อยขึ้น

การทดสอบสาธารณะได้รับความสนใจจาก Twitter – และตอนนี้ บริษัท กำลังดำเนินการ

“ทีมของเราทำการทดสอบความลำเอียงก่อนที่จะส่งแบบจำลองและไม่พบหลักฐานว่ามีอคติทางเชื้อชาติหรือเพศในการทดสอบของเรา” Liz Kelly สมาชิกทีมสื่อสารของ Twitter กล่าวกับ Mashable “แต่จากตัวอย่างเหล่านี้เห็นได้ชัดว่าเรามีการวิเคราะห์เพิ่มเติมที่ต้องทำเรากำลังตรวจสอบเรื่องนี้และจะแบ่งปันสิ่งที่เราเรียนรู้และสิ่งที่เราทำต่อไป”

Dantley Davis ประธานเจ้าหน้าที่ฝ่ายออกแบบของ Twitter และประธานเจ้าหน้าที่ฝ่ายเทคโนโลยี Parag Agrawal ยังพูดใน Twitter ว่าพวกเขากำลัง “ตรวจสอบ” โครงข่ายประสาทเทียม

บทสนทนาเริ่มต้นเมื่อผู้ใช้ Twitter รายหนึ่งโพสต์เกี่ยวกับอคติทางเชื้อชาติในการตรวจจับใบหน้าของ Zoom เขาสังเกตเห็นว่าภาพเคียงข้างกันของเขา (ชายผิวขาว) และเพื่อนร่วมงานผิวดำของเขาแสดงใบหน้าของเขาซ้ำ ๆ ในการดูตัวอย่าง

หลังจากผู้ใช้หลายคน เข้าร่วมการทดสอบ ผู้ใช้รายหนึ่งยังได้แสดงให้เห็นว่าการชอบใบหน้าที่เบากว่านั้นเป็นอย่างไรกับตัวละครจาก The Simpsons

คำสัญญาของ Twitter ในการตรวจสอบเป็นสิ่งที่น่ายินดี แต่ผู้ใช้ Twitter ควรดูการวิเคราะห์ด้วยเกลือเม็ดหนึ่ง เป็นปัญหาในการอ้างเหตุแห่งความลำเอียงจากตัวอย่างจำนวนหนึ่ง ในการประเมินอคติอย่างแท้จริงนักวิจัยจำเป็นต้องมีขนาดตัวอย่างที่ใหญ่และมีหลายตัวอย่างภายใต้สถานการณ์ที่หลากหลาย

สิ่งอื่นใดคือการอ้างอคติโดยเกร็ดเล็กเกร็ดน้อย – สิ่งที่พวกอนุรักษ์นิยมทำเพื่อ อ้างอคติต่อต้านอนุรักษ์นิยม บนโซเชียลมีเดีย ข้อโต้แย้งประเภทนี้อาจเป็นอันตรายได้เพราะโดยปกติแล้วผู้คนสามารถหาตัวอย่างหนึ่งหรือสองตัวอย่างของสิ่งใดสิ่งหนึ่งเพื่อพิสูจน์ประเด็นซึ่งทำลายอำนาจในการวิเคราะห์อย่างเข้มงวด

นั่นไม่ได้หมายความว่าคำถามเกี่ยวกับการแสดงตัวอย่างไม่คุ้มค่าที่จะพิจารณาเนื่องจากอาจเป็นตัวอย่างของ อคติเชิงอัลกอริทึม : เมื่อระบบอัตโนมัติสะท้อนอคติของผู้ผลิตที่เป็นมนุษย์หรือทำการตัดสินใจที่มีผลกระทบที่เอนเอียง

ในปี 2018 Twitter เผยแพร่ บล็อกโพสต์ ที่อธิบายว่ามันใช้เครือข่ายประสาทเทียมในการตัดสินใจดูตัวอย่างภาพถ่ายได้อย่างไร ปัจจัยหนึ่งที่ทำให้ระบบเลือกส่วนหนึ่งของภาพคือระดับคอนทราสต์ที่สูงขึ้น สิ่งนี้สามารถอธิบายสาเหตุที่ระบบดูเหมือนว่าชอบใบหน้าขาว การตัดสินใจใช้คอนทราสต์เป็นปัจจัยกำหนดครั้งนี้อาจไม่ได้มีเจตนาเหยียดผิว แต่การแสดงใบหน้าขาวบ่อยกว่าคนผิวดำนั้นเป็นผลลัพธ์ที่เอนเอียง

ยัง มีคำถาม ว่าตัวอย่างเล็ก ๆ น้อย ๆ เหล่านี้สะท้อนถึงปัญหาเชิงระบบหรือไม่ แต่การตอบสนองต่อนักสืบ Twitter ด้วยความขอบคุณและการกระทำเป็นจุดเริ่มต้นที่ดีไม่ว่าจะเกิดอะไรขึ้น

ติดตาม Mashable SEA บน Facebook , Twitter , Instagram และ YouTube

ที่มา: Mashable

(Visited 1 times, 1 visits today)

What do you think?

0 points
Upvote Downvote

Written by editorteam

ทรัมป์จะแบน TikTok และ WeChat จากร้านค้าแอปในวันอาทิตย์

ทรัมป์จะแบน TikTok และ WeChat จากร้านค้าแอปในวันอาทิตย์

YouTube ทำให้ผู้ดูแลเนื้อหาที่เป็นมนุษย์กลับมาทำงานได้

YouTube ทำให้ผู้ดูแลเนื้อหาที่เป็นมนุษย์กลับมาทำงานได้