शोध पत्र आते हैं किसी के लिए उन सभी को पढ़ने के लिए बहुत बार बाहर। यह मशीन लर्निंग के क्षेत्र में विशेष रूप से सच है, जो अब व्यावहारिक रूप से हर उद्योग और कंपनी को प्रभावित करता है (और कागजात तैयार करता है)। यह कॉलम कुछ अधिक दिलचस्प हाल की खोजों और कागजात को इकट्ठा करना है – विशेष रूप से, लेकिन कृत्रिम बुद्धि तक सीमित नहीं है – और समझाएं कि वे क्यों मायने रखते हैं।
इस सप्ताह हमारे पास मशीन लर्निंग सिस्टम में पूर्वाग्रह या धोखाधड़ी के व्यवहार की पहचान करने या पुष्टि करने के उद्देश्य से कई प्रविष्टियां हैं, या डेटा में विफलताएं जो उनका समर्थन करती हैं। लेकिन पहले एक विशुद्ध दृष्टि से आकर्षक परियोजना वाशिंगटन विश्वविद्यालय से कंप्यूटर विजन और पैटर्न मान्यता पर सम्मेलन में प्रस्तुत किया जा रहा है।
उन्होंने एक ऐसी प्रणाली को प्रशिक्षित किया जो तस्वीरों में पानी, बादलों, धुएं और अन्य तरल पदार्थों के प्रवाह को पहचानती और भविष्यवाणी करती है, उन्हें एक स्थिर छवि से एनिमेट करती है। परिणाम काफी अच्छा है:
ऐसा क्यों? खैर, एक बात के लिए, फोटोग्राफी का भविष्य कोड है, और जितना बेहतर हमारे कैमरे उस दुनिया को समझते हैं, जिस पर वे इंगित कर रहे हैं, उतना ही बेहतर वे इसे समायोजित कर सकते हैं या इसे फिर से बना सकते हैं। नकली नदी प्रवाह उच्च मांग में नहीं है, लेकिन आंदोलन और सामान्य फोटो विशेषताओं के व्यवहार की सटीक भविष्यवाणी करना है।
किसी भी मशीन लर्निंग सिस्टम के निर्माण और अनुप्रयोग में उत्तर देने के लिए एक महत्वपूर्ण प्रश्न यह है कि क्या यह वास्तव में वह काम कर रहा है जो आप चाहते हैं। “एआई” का इतिहास उन मॉडलों के उदाहरणों से भरा हुआ है, जिन्हें यह देखने का एक तरीका मिला कि वे वास्तव में इसे किए बिना एक कार्य कर रहे हैं – जैसे कि एक बच्चा बिस्तर के नीचे सब कुछ लात मार रहा है जब उन्हें अपना कमरा साफ करना चाहिए।
यह चिकित्सा क्षेत्र में एक गंभीर समस्या है, जहां एक प्रणाली जो इसे ढोंग कर रही है, उसके गंभीर परिणाम हो सकते हैं। और एक अध्ययन, यूडब्ल्यू से भी, पाता है साहित्य में प्रस्तावित मॉडलों में ऐसा करने की प्रवृत्ति होती है, जिसे शोधकर्ता “शॉर्टकट लर्निंग” कहते हैं। ये शॉर्टकट सरल हो सकते हैं – छवि में डेटा के बजाय रोगी की जनसांख्यिकी पर एक्स-रे के जोखिम को आधारित करना, उदाहरण के लिए – या अधिक अद्वितीय, जैसे अस्पताल में स्थितियों पर बहुत अधिक निर्भर करना इसका डेटा है, जिससे इसे सामान्यीकृत करना असंभव हो जाता है अन्य।
टीम ने पाया कि कई मॉडल मूल रूप से विफल हो गए जब डेटासेट पर उपयोग किए गए जो उनके प्रशिक्षण से भिन्न थे। उन्हें उम्मीद है कि मशीन लर्निंग ट्रांसपेरेंसी (“ब्लैक बॉक्स खोलना”) में प्रगति से यह बताना आसान हो जाएगा कि ये सिस्टम कब नियमों से खिलवाड़ कर रहे हैं।

छवि क्रेडिट: सिगफ्राइड मोडोला (एक नई विंडो में खुलता है) / गेटी इमेजेज