महिलाओं का चेहरा पहचानने में फेस अनलॉक क्यों हो जाता है फेल, कैसे इसे किया जा सकता है ठीक, जानें यहां
फेस अनलॉक यानी रिकग्निशन सॉफ्टवेयर कई बार महिलाओं को चेहरे को पहचानने में गलती कर देता है जिसके चलते महिलाओं को दिक्कतों का सामना करना पड़ रहा है। बता दें कि सारे देशों में पुलिस फेशियल रिकग्निशन सॉफ्टवेयर का इस्तेमाल करके अपराधियों की पहचान करती है।

नई दिल्ली। टेक डेस्क. सौरभर वर्मा। फेस अनलॉक यानी रिकग्निशन सॉफ्टवेयर कई बार महिलाओं को चेहरे को पहचानने में गलती कर देता है, जिसके चलते महिलाओं को दिक्कतों का सामना करना पड़ रहा है। बता दें कि सारे देशों में पुलिस फेशियल रिकग्निशन सॉफ्टवेयर का इस्तेमाल करके अपराधियों की पहचान करती है। कई सारे रिटेल चेन जैसे कि वॉल्मार्ट इसका इस्तेमाल करके ब्लैकलिस्टेड शॉपलिफ़्टर को पहचानते हैं और उन पर नज़र रखते हैं। ऐसे में अगर किसी महिला की ग़लत नाम से पहचान हो जाती है, तो निर्दोष होने पर भी उसे काफ़ी परेशानी हो सकती है। सॉफ़्टवेयर की ऐसी ग़लतियों का मुख्य कारण है कि फ़ेस रेकग्निशन ट्रेनिंग के डेटासेट में महिलाओं की उपस्थिति काफ़ी कम है। कम्पुटर विज़न के दो हिस्से हैं - देखना और समझना - seeing and analysis. ये दो हिस्से तकनीकी और मानवीय पक्ष से निर्धारित होते हैं।
तकनीकी पक्ष: कम्प्यूटर विज़न सॉफ़्टवेयर वही पहचान सकता है जो उसने देखा हो।
Integration Wizard Solution के सीईओ Kunal Kislay बताते हैं कि फेशियल रिकग्निशन अल्गोरिथ्म चेहरे को पहचानने के लिए लैंडमार्क बनाता है - हर चेहरे की विशेषता जैसे कि आँखों के बीच की जगह, नाक, चीकबोन्स और जबड़े की आकृति और आकार। मशीन लर्निंग अल्गोरिथ्म की ट्रेनिंग डेटा सेट्स के साथ होती है। ये डेटा सेट्स कई जगह से लोगों की तस्वीरों को लेकर बनाए जाते हैं। जैसे कि Facebook में जितने लोगों ने अपनी तस्वीरें डाली हैं, उन सभी तस्वीरों का इस्तेमाल लोगों को पहचानने में होता है। फेशियल रिकग्निशन इन तस्वीरों का इस्तेमाल करके आपकी किसी तस्वीर में आपकी जान-पहचान के दोस्तों को टैग करने का ऑप्शन देता है।
अश्वेत महिलाओं को पहचानने में होती है ज्यादा गलती
हर तरह के अल्गोरिथ्म को ट्रेन करने के लिए डेटा सेट्स चाहिए होते हैं। इन डेटा सेट्स में पुरुषों का अनुपात स्त्रियों के मुक़ाबले ज़्यादा होता है। इसलिए सॉफ़्टवेयर कई तरह के पुरुषों को पहचान लेता है लेकिन महिलाओं को पहचानने में ग़लतियाँ करता है। इन डेटा सेट्स में अधिकतर व्यक्ति श्वेत पुरुष होते हैं इसलिए अल्गोरिथ्म अश्वेत महिलाओं को पहचानने में सबसे ज़्यादा ग़लतियाँ करता है। रिसर्च में पाया गया है कि अधिकतर डेटा सेट्स में क़रीब 70% पुरुष होते हैं। कोडिंग करने वाले अधिकतर व्यक्ति भी श्वेत पुरुष होते हैं इसलिए जब वे इन डेटा सेट्स को देखते हैं तो उनका इस बात पर ज़्यादा ध्यान नहीं जाता कि इनमें अश्वेत व्यक्ति या दूसरी रेस के व्यक्तियों का अनुपात बहुत कम है।
मानवीय पक्ष: कम्प्यूटर विज़न सोफ़्टवेयर वही पहचान सकता है जो हम उसे सिखाते हैं।
आर्टिफ़िशियल इंटेलिजेन्स सॉफ्टवेयर वही सीखते हैं जो हम उन्हें सिखाते हैं। इसलिए वहां वही स्टीरियोटाइप और भी गहरे होते जाते हैं जो कोडिंग करने वाले व्यक्ति के भीतर हैं। जैसे कि जब हम अल्गोरिथ्म को सिखा रहे हैं होते हैं कि स्त्री कैसी दिखती है - लम्बे बाल, छोटा अंडाकार चेहरा, पतली भवें, छोटी ठुड्डी, और छोटे, पतले, गुलाबी होंठ - तो अल्गोरिथ्म इस चीज़ को सारी तस्वीरों में तलाशेगा। इसलिए अल्गोरिथ्म तस्वीर में लम्बे बाल वाले क्लीन शेव पुरुष को स्त्री की तरह आयडेंटिफ़ाई कर देता है। जबकि छोटे बालों वाली, मोटे होठों वाली स्त्री को पुरुष की तरह आयडेंटिफ़ाई कर सकता है।
स्त्रियों के डेटा सेट में बहुत अलग अलग तरह के ऑप्शन नहीं बनाए गए हैं। जहाँ पुरुष के चेहरे में अंतर उसके दाढ़ी और मूँछ रखने और उम्र के कारण आता है स्त्रियों के चेहरे के कई वेरीएशन होते हैं। बालों के अलग अलग स्टाइल से लेकर उनका मेक-अप उन्हें बिलकुल अलग लुक दे सकता है जिसे पहचानने की क्षमता अल्गोरिथ्म में नहीं होती है। मेक-अप से - भवें अलग आकार की हो सकती हैं, लिप्स्टिक का रंग या फ़ाउंडेशन और कंसीलर के इस्तेमाल से चेहरे के अलग फीचर्स हाईलाइट किए हुए एक ही स्त्री बिलकुल अलग दिख सकती है। ट्रेनिंग के डेटा सेट्स में तस्वीरों के इतने वेरीएशन नहीं डाले गए हैं। डेटा सेट बढ़ी हुयी दाढ़ी वाले पुरुष की उम्र अक्सर अधिक बताता है। इसी तरह कंसीलर का इस्तेमाल करके छुपायी गयी झुर्रियों को फेशियल रिकग्निशन सॉफ्टवेयर नहीं पहचान सकता है और ग़लत उम्र बता देता है।
अल्गोरिथ्म को सही ट्रेनिंग कैसे दे सकते हैं?
इस समस्या के मानवीय और तकनीकी, दोनों पक्षों में बदलाव करने ज़रूरी हैं। कोडिंग करने वाले व्यक्तियों में इंक्लूसिविटी हो - भिन्न भिन्न तरह के लोग हों, स्त्री - पुरुष, श्वेत - अश्वेत और कई सारी अलग अलग एथनिसिटी या देशों के लोग। ये सब मिल कर अगर एक ही अल्गोरिथ्म को ट्रेन करेंगे तो उन्हें इस तरह के स्टीरीयोटाइप आसानी से दिख सकेंगे और वे उसे काउंटर करने के लिए दूसरे तरह की तस्वीरें डाल कर सिस्टम को बेहतर सिखा सकते हैं। ट्रेन करने वाले डेटा सेट में भी हर तरह के लोगों का समावेश हो - जैसे कि अगर हर डेटा सेट में 50% महिलाएं हों तो सॉफ्टवेयर उन्हें बेहतर पहचान सकेगा।
एक व्यक्ति के अपने बायस या पक्षपात बहुत कम लोगों को प्रभावित करते हैं या नुक़सान पहुंचाते हैं। लेकिन डेटा सेट या सॉफ़्टवेयर का जेंडर बायस पूरी दुनिया में कई जगह बहुत ज़्यादा नुक़सान पहुंचा सकता है। एक ही डेटा सेट का इस्तेमाल करके बहुत से देशों में बहुत सी कम्पनियां अपने सिस्टम्स को ट्रेन करती हैं। ऐसा बायस वक़्त के साथ और गहरा होता जाता है। ज़रूरी है कि शुरुआत में ही इसकी पहचान कर ठीक कर दिया जाए। आर्टिफ़िशियल इंटेलिजेन्स वाली मशीनों की दुनिया इतनी आभासी नहीं है जितनी सोचने में लगती है। हमारी दुनिया में इसका बहुत जगहों पर प्रभाव पड़ता है। स्त्रियों को बराबरी की एक लड़ाई अभी वर्चुअल दुनिया में लड़नी और जीतनी बाक़ी है।
नोट - इस आर्टिकल को कुणाल किसलय ने लिखा है। इन्होंने IIT Bombay से बी टेक किया है और लगभग डेढ़ दशक से एडवांस्ड टेक्नॉलजी पर काम कर रहे हैं। इन्होंने इंटरनेट ऑफ़ थिंग, IOT, मशीन लर्निंग और आर्टिफ़िशियल इंटेलिजेन्स जैसी तकनीक पर काम किया है।

कमेंट्स
सभी कमेंट्स (0)
बातचीत में शामिल हों
कृपया धैर्य रखें।