चिकित्सा, जलवायु विज्ञान और दृष्टि में एआई को ईमानदार रखना – News Reort

Posted on

शोध पत्र आते हैं किसी के लिए उन सभी को पढ़ने के लिए बहुत बार बाहर। यह मशीन लर्निंग के क्षेत्र में विशेष रूप से सच है, जो अब व्यावहारिक रूप से हर उद्योग और कंपनी को प्रभावित करता है (और कागजात तैयार करता है)। यह कॉलम कुछ अधिक दिलचस्प हाल की खोजों और कागजात को इकट्ठा करना है – विशेष रूप से, लेकिन कृत्रिम बुद्धि तक सीमित नहीं है – और समझाएं कि वे क्यों मायने रखते हैं।

इस सप्ताह हमारे पास मशीन लर्निंग सिस्टम में पूर्वाग्रह या धोखाधड़ी के व्यवहार की पहचान करने या पुष्टि करने के उद्देश्य से कई प्रविष्टियां हैं, या डेटा में विफलताएं जो उनका समर्थन करती हैं। लेकिन पहले एक विशुद्ध दृष्टि से आकर्षक परियोजना वाशिंगटन विश्वविद्यालय से कंप्यूटर विजन और पैटर्न मान्यता पर सम्मेलन में प्रस्तुत किया जा रहा है।

उन्होंने एक ऐसी प्रणाली को प्रशिक्षित किया जो तस्वीरों में पानी, बादलों, धुएं और अन्य तरल पदार्थों के प्रवाह को पहचानती और भविष्यवाणी करती है, उन्हें एक स्थिर छवि से एनिमेट करती है। परिणाम काफी अच्छा है:

ऐसा क्यों? खैर, एक बात के लिए, फोटोग्राफी का भविष्य कोड है, और जितना बेहतर हमारे कैमरे उस दुनिया को समझते हैं, जिस पर वे इंगित कर रहे हैं, उतना ही बेहतर वे इसे समायोजित कर सकते हैं या इसे फिर से बना सकते हैं। नकली नदी प्रवाह उच्च मांग में नहीं है, लेकिन आंदोलन और सामान्य फोटो विशेषताओं के व्यवहार की सटीक भविष्यवाणी करना है।

किसी भी मशीन लर्निंग सिस्टम के निर्माण और अनुप्रयोग में उत्तर देने के लिए एक महत्वपूर्ण प्रश्न यह है कि क्या यह वास्तव में वह काम कर रहा है जो आप चाहते हैं। “एआई” का इतिहास उन मॉडलों के उदाहरणों से भरा हुआ है, जिन्हें यह देखने का एक तरीका मिला कि वे वास्तव में इसे किए बिना एक कार्य कर रहे हैं – जैसे कि एक बच्चा बिस्तर के नीचे सब कुछ लात मार रहा है जब उन्हें अपना कमरा साफ करना चाहिए।

यह चिकित्सा क्षेत्र में एक गंभीर समस्या है, जहां एक प्रणाली जो इसे ढोंग कर रही है, उसके गंभीर परिणाम हो सकते हैं। और एक अध्ययन, यूडब्ल्यू से भी, पाता है साहित्य में प्रस्तावित मॉडलों में ऐसा करने की प्रवृत्ति होती है, जिसे शोधकर्ता “शॉर्टकट लर्निंग” कहते हैं। ये शॉर्टकट सरल हो सकते हैं – छवि में डेटा के बजाय रोगी की जनसांख्यिकी पर एक्स-रे के जोखिम को आधारित करना, उदाहरण के लिए – या अधिक अद्वितीय, जैसे अस्पताल में स्थितियों पर बहुत अधिक निर्भर करना इसका डेटा है, जिससे इसे सामान्यीकृत करना असंभव हो जाता है अन्य।

टीम ने पाया कि कई मॉडल मूल रूप से विफल हो गए जब डेटासेट पर उपयोग किए गए जो उनके प्रशिक्षण से भिन्न थे। उन्हें उम्मीद है कि मशीन लर्निंग ट्रांसपेरेंसी (“ब्लैक बॉक्स खोलना”) में प्रगति से यह बताना आसान हो जाएगा कि ये सिस्टम कब नियमों से खिलवाड़ कर रहे हैं।

Leave a Reply

Your email address will not be published. Required fields are marked *