एआई सुरक्षा उपकरण एल्गोरिदम में पूर्वाग्रह को कम करने में मदद कर सकते हैं

Posted on

एआई अपनाने की अवस्था में आपका उद्यम कहां खड़ा है? पता लगाने के लिए हमारे एआई सर्वेक्षण में भाग लें।


जैसे-जैसे एआई का प्रसार होता है, शोधकर्ता ऐसी तकनीकों का आह्वान करने लगे हैं जो एआई-संचालित प्रणालियों में विश्वास को बढ़ावा दे सकें। केपीएमजी द्वारा किए गए एक सर्वेक्षण के अनुसार, पांच देशों – यूएस, यूके, जर्मनी, कनाडा और ऑस्ट्रेलिया में – एक तिहाई से अधिक आम जनता का कहना है कि वे सामान्य रूप से एआई सिस्टम पर भरोसा करने के इच्छुक नहीं हैं। और पेगा द्वारा प्रकाशित एक रिपोर्ट में, केवल 25% उपभोक्ताओं ने कहा कि वे बैंक ऋण के लिए योग्यता के संबंध में एआई सिस्टम द्वारा किए गए निर्णय पर भरोसा करेंगे, उदाहरण के लिए।

चिंता ने सॉफ्टवेयर की एक नस्ल को जन्म दिया है जो जोखिम भरे निर्णय लेने के आरोप में एआई सिस्टम पर प्रतिबंध लगाने का प्रयास करता है। कुछ सुदृढीकरण सीखने पर ध्यान केंद्रित करते हैं, या एआई जो उत्तरोत्तर पुरस्कारों के माध्यम से लक्ष्यों की ओर बढ़ता है, जो सेल्फ-ड्राइविंग कारों और ड्रग डिस्कवरी सिस्टम की नींव बनाता है। अन्य निष्पक्षता पर अधिक व्यापक रूप से ध्यान केंद्रित करते हैं, जो एआई सिस्टम में एक मायावी गुणवत्ता हो सकती है – ज्यादातर एल्गोरिदम और डेटासेट में पूर्वाग्रह के कारण।

दूसरों के बीच, OpenAI और अल्फाबेट के स्वामित्व वाले डीपमाइंड ने विभिन्न प्रकार के अनुप्रयोगों के लिए “सुरक्षित” एआई सिस्टम को प्रशिक्षित करने के लिए वातावरण जारी किया है। अधिक नियमित रूप से खुले स्रोत में अपना रास्ता बनाते हैं, यह सुनिश्चित करते हुए कि विवश या सुरक्षित एआई के अध्ययन में पैर हैं – और एक स्थायी प्रभाव।

सुरक्षा उपकरण

एआई प्रशिक्षण के लिए सुरक्षा उपकरण सिस्टम को खतरनाक व्यवहारों में शामिल होने से रोकने के लिए डिज़ाइन किए गए हैं जिससे त्रुटियां हो सकती हैं। वे आम तौर पर तकनीकों का उपयोग करते हैं जैसे विवश सुदृढीकरण सीखने, जो “लागत कार्यों” को लागू करता है जिसे एआई को समय के साथ सीमित करना सीखना चाहिए। विवश प्रणालियाँ उन ट्रेडऑफ़ का पता लगाती हैं जो कुछ निश्चित परिणाम प्राप्त करते हैं। उदाहरण के लिए, एक “बाधित” चालक रहित कार तब तक टकरावों से बचना सीख सकती है जब तक कि वह यात्राएं पूरी नहीं कर लेती।

सुरक्षा उपकरण एआई को विभिन्न काल्पनिक व्यवहारों के माध्यम से राज्यों की एक श्रृंखला का पता लगाने के लिए प्रोत्साहित करते हैं। उदाहरण के लिए, वे यादृच्छिक प्रक्षेपवक्र या सुरक्षित विशेषज्ञ प्रदर्शनों जैसे डेटा द्वारा सूचित व्यवहारों की भविष्यवाणी करने के लिए एक जनरेटिव सिस्टम का उपयोग कर सकते हैं। एक मानव पर्यवेक्षक व्यवहारों को पुरस्कारों के साथ लेबल कर सकता है, ताकि एआई अपने कुल इनाम को अधिकतम करने के लिए सबसे सुरक्षित व्यवहार सीख सके।

सुदृढीकरण सीखने से परे, सुरक्षा उपकरण एआई मॉडल का प्रशिक्षण देते समय पूर्वाग्रहों को कम करने के लिए ढांचे को शामिल करते हैं। उदाहरण के लिए, Google MinDiff की पेशकश करता है, जिसका उद्देश्य वर्गीकरण में निष्पक्षता या डेटा को श्रेणियों में क्रमबद्ध करने की प्रक्रिया को शामिल करना है। वर्गीकरण मॉडल प्रशिक्षण डेटासेट में कम प्रतिनिधित्व वाले समूहों के खिलाफ पूर्वाग्रह से ग्रस्त है, और विरल जनसांख्यिकी डेटा और संभावित सटीकता ट्रेडऑफ़ के कारण संतुलन हासिल करना मुश्किल हो सकता है।

Google के पास ओपन-सोर्स एमएल-फेयरनेस-जिम भी है, जो नकली सामाजिक वातावरण में एल्गोरिथम निष्पक्षता के मूल्यांकन के लिए घटकों का एक सेट है। कंपनी के सुइट में अन्य मॉडल डिबेज़िंग और फेयरनेस टूल्स में शामिल हैं व्हाट-इफ टूल, जो इसके TensorFlow मशीन लर्निंग फ्रेमवर्क के लिए TensorBoard वेब डैशबोर्ड की एक पूर्वाग्रह-पहचान सुविधा है; और SMACTR (स्कोपिंग, मैपिंग, आर्टिफैक्ट कलेक्शन, टेस्टिंग और रिफ्लेक्शन), एक जवाबदेही ढांचा है जिसका उद्देश्य एआई मॉडल को तैनात करने वाले व्यवसायों के लिए गुणवत्ता आश्वासन की एक परत जोड़ना है।

आगे नहीं बढ़ने के लिए, माइक्रोसॉफ्ट फेयरलर्न प्रदान करता है, जो दो प्रकार के नुकसानों को संबोधित करता है: आवंटन हानि और सेवा की गुणवत्ता हानि। आवंटन हानि तब होती है जब एआई सिस्टम अवसरों, संसाधनों, या सूचनाओं का विस्तार या रोक लगाता है – उदाहरण के लिए, भर्ती, स्कूल प्रवेश और उधार में। सेवा की गुणवत्ता के नुकसान से तात्पर्य है कि क्या कोई सिस्टम एक व्यक्ति के लिए उतना ही काम करता है जितना वह दूसरे के लिए करता है, भले ही कोई अवसर, संसाधन या जानकारी न बढ़ाई गई हो या रोकी गई हो।

माइक्रोसॉफ्ट के अनुसार, पेशेवर सेवा फर्म अर्न्स्ट एंड यंग ने सेक्स के संबंध में मॉडल आउटपुट की निष्पक्षता का मूल्यांकन करने के लिए फेयरलर्न का इस्तेमाल किया। टूलकिट ने पुरुषों बनाम महिलाओं के लिए सकारात्मक ऋण निर्णयों के बीच 15.3% अंतर का खुलासा किया, और अर्न्स्ट एंड यंग की मॉडलिंग टीम ने फिर कई उपचारात्मक मॉडल विकसित और प्रशिक्षित किए और निष्पक्षता और मॉडल सटीकता के बीच सामान्य व्यापार-बंद की कल्पना की।

लिंक्डइन ने कुछ समय पहले लिंक्डइन फेयरनेस टूलकिट (एलआईएफटी) जारी किया था, जो एक सॉफ्टवेयर लाइब्रेरी है जिसका उद्देश्य एआई और मशीन लर्निंग वर्कफ़्लो में निष्पक्षता के माप को सक्षम करना है। कंपनी का कहना है कि प्रशिक्षण डेटा सेट में पूर्वाग्रहों को मापने के लिए प्रशिक्षण और स्कोरिंग के दौरान एलआईएफटी को तैनात किया जा सकता है, और उपसमूहों में उनके प्रदर्शन में अंतर का पता लगाने के दौरान मॉडल के लिए निष्पक्षता की धारणा का मूल्यांकन करने के लिए।

आज तक, लिंक्डइन का कहना है कि उसने प्रशिक्षण से पहले मॉडल के प्रशिक्षण डेटा सेट की निष्पक्षता मीट्रिक को मापने के लिए आंतरिक रूप से एलआईएफटी को लागू किया है। भविष्य में, कंपनी की योजना पाइपलाइनों की संख्या में वृद्धि करने की है जहां वह एलआईएफटी के गहन एकीकरण के माध्यम से निरंतर आधार पर पूर्वाग्रह को माप रही है और कम कर रही है।

हाई-प्रोफाइल सुरक्षा उपकरणों की सूची में आईबीएम का एआई फेयरनेस 360 टूलकिट है, जिसमें एल्गोरिदम, कोड और ट्यूटोरियल की एक लाइब्रेरी है जो मॉडल में पूर्वाग्रह का पता लगाने के तरीकों को प्रदर्शित करता है। टूलकिट समायोजन की सिफारिश करता है – जैसे कि एल्गोरिथम ट्वीक्स या काउंटरबैलेंसिंग डेटा – जो उनके प्रभाव को कम कर सकता है, यह समझाते हुए कि कौन से कारक किसी दिए गए मशीन लर्निंग मॉडल के निर्णय के साथ-साथ इसकी समग्र सटीकता, प्रदर्शन, निष्पक्षता और वंश को प्रभावित करते हैं।

दृश्य में एक और हालिया जोड़ा आवाज और भाषण पहचान ऐप्स में जनसांख्यिकीय पूर्वाग्रह का पता लगाने के लिए एक डेटासेट और टूल है। आर्टी बायस कॉर्पस (एबीसी), जिसमें उनके ट्रांसक्रिप्शन के साथ ऑडियो फाइलें शामिल हैं, का उद्देश्य आवाज पहचान प्रणाली में उम्र, लिंग और उच्चारण जैसे कारकों के प्रभाव का निदान और कम करना है। एआई स्टार्टअप पाइमेट्रिक्स ‘ऑडिट एआई, जिसे हाल ही में लॉन्च किया गया था, को यह निर्धारित करने के लिए डिज़ाइन किया गया है कि क्या एक विशिष्ट आंकड़े या विशेषता को एक एल्गोरिदम में खिलाया जा रहा है या सांख्यिकीय रूप से महत्वपूर्ण, व्यवस्थित दर पर वंचित किया जा रहा है जिससे डेटासेट में कम प्रतिनिधित्व वाले लोगों पर प्रतिकूल प्रभाव पड़ता है। .

सही दिशा में कदम

सभी सुरक्षा उपकरण समान नहीं बनाए गए हैं। कुछ का रखरखाव नहीं किया जा रहा है या उनके पास दस्तावेज़ीकरण की कमी है, और इस हद तक की एक सीमा है कि वे संभावित नुकसान को दूर कर सकते हैं। फिर भी, उद्यम में इन उपकरणों को अपनाने से बाहरी और आंतरिक दोनों हितधारकों के बीच विश्वास की भावना पैदा हो सकती है।

कैपजेमिनी के एक अध्ययन में पाया गया कि ग्राहक और कर्मचारी उन संगठनों को पुरस्कृत करेंगे जो नैतिक एआई का अभ्यास अधिक निष्ठा, अधिक व्यवसाय और यहां तक ​​कि उनके लिए वकालत करने की इच्छा के साथ करते हैं – और बदले में, उन लोगों को दंडित करते हैं जो नहीं करते हैं। अध्ययन से पता चलता है कि उन कंपनियों के लिए प्रतिष्ठा जोखिम और नीचे की रेखा पर सीधा प्रभाव दोनों हैं जो इस मुद्दे को सोच-समझकर नहीं लेते हैं।

इसके अलावा, अमेरिकियों के भारी बहुमत – 82% – का मानना ​​​​है कि एआई को ध्यान से प्रबंधित किया जाना चाहिए, यूरोपीय संघ के उत्तरदाताओं के सर्वेक्षण परिणामों की तुलना में, एआई के शासन के लिए केंद्र की 2019 की रिपोर्ट के अनुसार। यह व्यवसायों को इस उद्देश्य को प्राप्त करने के लिए आवश्यक किसी भी उपकरण का उपयोग करके एआई की जिम्मेदार और निष्पक्ष तैनाती का उपयोग करने के लिए एक स्पष्ट जनादेश का सुझाव देता है।

वेंचरबीट

तकनीकी निर्णय लेने वालों के लिए परिवर्तनकारी तकनीक और लेनदेन के बारे में ज्ञान हासिल करने के लिए वेंचरबीट का मिशन एक डिजिटल टाउन स्क्वायर बनना है।

जब आप अपने संगठनों का नेतृत्व करते हैं तो हमारा मार्गदर्शन करने के लिए हमारी साइट डेटा तकनीकों और रणनीतियों पर आवश्यक जानकारी प्रदान करती है। हम आपको हमारे समुदाय का सदस्य बनने के लिए आमंत्रित करते हैं:

  • आपकी रुचि के विषयों पर अप-टू-डेट जानकारी
  • हमारे समाचार पत्र
  • गेटेड विचार-नेता सामग्री और हमारे बेशकीमती आयोजनों के लिए रियायती पहुंच, जैसे रूपांतरण 2021: और अधिक जानें
  • नेटवर्किंग सुविधाएँ, और बहुत कुछ

सदस्य बने

Leave a Reply

Your email address will not be published. Required fields are marked *